论文部分内容阅读
表情是人类表达自身情感信息的重要非语言性行为,是人类内心活动的重要反应,正确识别面部表情是保证正常交流的前提条件。由于遗传、地域、文化的不同,中国不同民族在表达情感时面部表情具有一定差异性,本文提出通过面部特征点角度特征识别分析不同民族的表情图片,同时提出基于面部动作编码系统(FACS)的面部活动单元(AU)和面部特征部件对中国多民族面部表情图像进行理解分析,进而研究不同民族面部表情表达的差异性,揭示不同民族面部表情表达的特征规律。本文对多民族表情图像采用主动形状模型(ASM)拟合CANDIDE-3模型进行特征点定位,它不仅可以准确定位面部特征点,还可以准确提取面部特征部件和面部活动单元(AU)。本文主要对蒙古族、维吾尔族、壮族、藏族人脸表情图像进行了研究,将几个民族的表情图片与中性表情图片进行对比分析。通过研究面部主要特征部件如眉毛、眼睛、鼻子、嘴巴的主要控制点的运动变化位移,从中提取面部表情数据相关信息,通过机器学习,绘制成不同表格图像整合分析不同民族的面部表情信息。本文提出通过分析不同民族表情图片的特征点角度变化规律,实现多民族面部表情的理解分析,并给出表情图片自动识别分析结果。本文提出的思想方法为多民族面部表情特征的研究提供了一种新的思路。本论文目的为中国多民族面部表情理解、识别分析和特征规律研究提供一种新方法。此外,对不同民族面部表情表达规律的理解研究可以用于民族文化保护和传承,同时相关的研究成果可以广泛的应用于民族数字文化产业。