论文部分内容阅读
目前,人脸三维表情模拟技术是当前在虚拟现实、计算机视觉领域里避不开的一项热点话题,尤其随着三维动画电影、游戏等娱乐产业的飞速发展,人们对三维表情模型的需求也越来越大。人类是一种高智商动物,拥有复杂的情感,而且表情往往就是情感最显著的载体。表情蕴含相当丰富的信息,能够向外界传递出态度观点、心理状况、情绪等信息,变化越复杂、越自然的表情越能传递更多的信息。有表演者的面部表情驱动三维模型的表情变化逐渐成为三维表情动画建模的趋势,相比传统的建模方法具有高效、细腻、表情自然等明显优势。而当前主流的由用户表情驱动表情模型的方法中,大多数基于含有深度信息的三维图像,采用的图像采集设备多为双目摄像头或者红外测距摄像头,成本较高且相比普通的单目摄像头普及性差得多。本文设计了一种专门针对单目摄像头的表情动画驱动系统,该系统的主要目的是通过单目摄像头采集用户的实时表情变化,并在构建好的三维模型上还原用户的面部表情和头部姿态,在不采用人脸深度信息而仅仅采用二维图片信息的前提下,保证了表情模拟的实时性和真实性。本文的研究内容要点如下:首先是人脸特征的预处理环节。该部分分为人脸检测环节和人脸特征提取环节,该部分的作用是为后续的表情参数估计、姿态参数估计算法提供所需的特征点。在该部分的人脸检测环节中加入了自适应图片放缩环节,目的是为了减少人脸检测环节的耗时。然后,本文设计了一种不同姿态空间下的表情映射模型,同时提出了表情阈值的概念。姿态空间映射模型的意义是将用户不同姿态下的表情关键特征统一地映射到正脸姿态下,之后设计估计用户表情参数和姿态参数的算法为表情合成提供所需的表情、姿态参数。最后,本文设计基于用户表情的人脸模型驱动系统。该系统主要分为模板录入模块、表情解耦模块和表情合成模块。其中,模板录入模块录入用户的基本特征信息,通过解耦模块对实时采集的人脸表情进行解耦并获得表情参数,最终在表情合成模块中通过三维模型模拟还原出用户的表情。