论文部分内容阅读
目前的面部表情识别任务中,卷积神经网络(Convolutional Neural Networks,CNN)和局部二值模式(Local Binary Patterns,LBP)只能提取面部表情单一特征,难以提取与面部变化高度相关的精确特征,从而影响表情识别的效果。此外,传统的损失函数难以较好地区分面部表情特征中的类间距离和类内距离,从而无法对提取到的特征进行有效判别。因此,本文以简化的VGG卷积神经网络为框架,搭配新型加性角度间隔损失函数进行了深入研究,对提高面部表情识别的准确度具有重要意义。本文提出了一种基于VGG网络的特征融合的面部表情识别方法,该方法将LBP特征和CNN卷积层提取的特征通过加权的方式结合在改进的VGG-16网络连接层中,最后将融合特征送入Softmax分类器获取各类特征的概率,完成基本的六种表情分类。实验结果表明,所提方法在CK+和JAFFE数据集上的平均识别准确度分别达到了97.5%和97.62%,融合特征得到的识别结果明显优于单一特征识别。与其他方法相比较,该方法能有效提高表情识别准确度,对光照变化更加鲁棒。本文还提出一种新型加性角度间隔损失函数,对传统的Softmax Loss损失函数进行改进,通过在特征与目标权值以及非目标权值的夹角上添加间隔m,以达到减小类内特征差异,增大类间特征距离的目的,从而提升特征判别效果。实验结果表明,该算法在CK+和JAFFE测试集面部表情识别准确度分别达到98.87%和98.92%。效果优于Softmax Loss损失函数、加性余弦间隔损失函数以及乘性角度间隔损失函数训练的面部表情识别模型。