论文部分内容阅读
行人再识别的任务是匹配两幅由视野不重叠的两个摄机拍摄所得的行人图像,是生物识别与安全技术领域中的关键技术。对于开集测试协议行人再识别问题的研究,大多算法的目的是在某种距离度量函数的优化下,使学习到的行人特征满足类内最大距离越来越小,同时类间最小距离越来越大。然而,由于行人姿势、摄像机视角、光照等变化使得该任务极具挑战。如何提取既具鲁棒性又不失识别能力的行人特征成为行人再识别的关键步骤。本文主要基于深度学习方法,对行人再识别任务进行了研究,主要工作总结如下:(1)本文采用siamese网络结构结合分类与验证损失联合监督行人特征的学习。除此之外,我们在验证损失函数之前设计一个特征重加权层。该层将特征维度的尺度与相关性考虑进去对每一维进行重新加权,且权值矩阵在网络训练过程中自动更新。同时,我们为该层的权值矩阵施加一个约束,以提高行人特征的泛化能力。(2)虽然分类损失函数结合验证损失函数可以提高行人特征的识别能力,但是该网络需要我们在训练之前对样本进行配对,且配对方式随着样本种类增多而急剧增加,不仅增加了计算复杂度,而且导致网络训练不稳定。本文研究了分类损失函数结合center loss函数用于行人再识别的性能。其中,分类损失函数分离不同类别的特征,而center loss代替验证损失函数,使同类特征向其类中心聚集,减小类内特征间的距离,提高行人特征的可识别性。然而center loss函数未考虑不同类别特征间的距离。因此,本文将类中心之间距离作为一项损失函数加入到center loss函数中监督网络训练,不仅迫使同类特征向其类别中心聚集,同时拉大不同类别中心点之间的距离,提高行人特征的识别性。(3)我们分别基于matlab与python语言设计了行人再识别系统,验证本文算法的实用性。