论文部分内容阅读
作为虚拟世界中的主体,虚拟人承载着真实再现人类行为的使命,如何使虚拟人根据人类意志做出栩栩如生的动作,一直以来都吸引着研究者们的探索的目光。其中,骨骼动画以其实现简单、效果逼真的优势而被广泛应用,但是如何通过这种简易结构来仿真人体复杂结构的行为动作,仍是一个需要不断进行深入发掘的难点问题。而三维皮肤模型的构建、精确骨架的获取以及骨骼绑定的效果等,无一不是影响虚拟人运动真实感的重要因素。因此,为了合成生动、连贯的虚拟人运动以及实现实验室文本驱动虚拟人表情及动作的目标,本文针对基于骨架提取的虚拟人动画展开深入研究。首先,为了满足可同时驱动虚拟人表情和动作的要求,采用对身体及头部分别建模的方法构造出虚拟人皮肤。使用三维建模软件将二维人体原画转化为一个无头的三维躯体,将其与实验室前期完成的头部模型连接来获得兼顾人脸动画标准的虚拟人皮肤,表情动画的合成工作将由实验室的其他成员完成。然后,针对当前骨架提取算法较为复杂,且专门针对人体的骨架提取方法较少的问题,提出一种基于模型分解的三维人体骨架提取方法。该方法通过综合分析模型分支以及拓扑结构来获取骨架点。其中分支计算由顶点到特征点的最小测地距离实现,拓扑结构则由测地距离函数以及划分阈值共同决定。本文在模型分支内逐层求取相同拓扑层次的顶点集合,并通过实验讨论阈值的合适取值以得到逼近关节位置的各骨架点,从而获取较为精确且与姿势无关的虚拟人骨架结构。最后,将提取骨架点进行层次化构建并由骨骼投影法分配绑定权重之后,使用线性混合蒙皮算法将构造的皮肤模型与提取骨架相关联。通过控制关节链模型上相应关节的平移和旋转最终生成连续、生动的虚拟人表面模型动画。实验结果表明,本文对于任意姿态的虚拟人均能得到较为精确的骨架提取效果,且能够使用该骨架生成真实感较强的骨骼动画。