论文部分内容阅读
近年来,人脸表情识别研究已经取得了很大发展,但这些工作大部分是基于二维图像或视频的,当面部姿态或光照条件发生变化时,识别效果会受到很大影响。随着三维信息获取设备的发展与普及,三维数据的获取已经越来越方便。由于三维人脸数据包含了更加全面的面部信息,这为解决具有光照、姿态变化的人脸表情识别问题提供了新途径。而基于三维数据的表情识别方法在面部表情特征的表示、提取等方面还有待深入研究。目前,按照提取特征的不同,三维表识别方法大致可以分为基于局部特征方法和基于全局特征的方法。基于局部特征的方法在特征表示方法上呈多元化趋势,并没有一种统一的表示形式得到认可,而基于全局特征的表示方法能够表示人脸的全局信息,因此成为近年来的研究热点,本文研究的基于双线性模型的表情识别方法是一种基于全局特征的三维表情识别方法。三维人脸表情数据的双线性模型是包含人脸身份特征和人脸表情特征两组参数的模型,这两组特征分别表示人脸的身份属性和表情属性。而要训练双线性模型需要三维人脸表情数据有统一的表示形式,因此本文在分析研究三维人脸表情点云数据配准方法基础上,通过基于薄板样条(TPS)的配准算法完成三维点云数据的配准。基于配准后的数据,建立了对称型的三维人脸表情数据双线性模型,获得三维人脸的表情特征和身份特征;为了更好地进行表情分类,提出基于近似身份信息的表情分类原则,即基于人脸的身份特征选择与之身份特征相近的人脸数据,在身份相近的样本数据中进行表情特征的相似性度量,最终实现表情的分类识别。实验基于BU-3DFE三维人脸数据库中1400张表情人脸进行实验,其中700张三维人脸表情数据作为训练集,另外不同的700张人脸作为测试集进行表情识别实验。实验结果表明,本文提出的三维人脸表情识别方法能较好地分离人脸的身份特征和表情特征,并具有较高的表情识别率。