论文部分内容阅读
视觉跟踪在视频监控系统、无人驾驶、人机交互、视频通信、交通安全和医疗诊断等众多实时视觉应用中起着至关重要的作用。近年来,基于相关滤波的目标跟踪算法以其惊人的速度和良好的精确度引起广大学者的注意,并不断取得亮眼成果。然而目标跟踪是一项非常极具挑战的任务,对于处于运动中的目标来说,其实际运动的场景是非常复杂的,比如光照变化,背景杂乱,又或者运动目标本身的外观发生形变,比如旋转,被遮挡等。在实际研究过程中,如何设计一个对各种情况均具有鲁棒性的算法,是我们需要关注的问题。针对这些问题,本文采用了融合多种特征和结合深度特征的相关滤波算法,来改进传统的相关滤波目标跟踪算法的性能,本文的主要工作和创新点如下:采用了一种基于融合特征的上下文相关滤波的目标跟踪算法。在通过相关滤波算法实现目标跟踪时,由于传统的相关滤波算法常常使用余弦窗口来抑制边缘效应或者在目标定位时扩大搜索范围(一般会扩大到两倍),在目标跟踪算法中所能利用的背景信息就会大大减少,从而在目标跟踪时往往会发生跟踪目标漂移的现象,基于以上传统相关滤波框架的不足之处,采用一种基于上下文的目标跟踪算法,并提出使用HOG特征与CN特征进行融合作为输入特征,最后设计了APCE遮挡机制来判断是否更新模型,来增强目标跟踪算法的准确性和鲁棒性,并且通过实验证明使用该跟踪算法比传统的几种滤波算法具有更强的鲁棒性。HOG特征是在图片局部cell上进行计算的,具有很好的不变形,但是HOG特征在目标被遮挡、快速运动或者发生旋转时都不易被检测,而且对噪声非常敏感。CN特征几乎不依赖于图像本身的大小、方向和观察角度,并且不受旋转和位置变化的影响,具有高鲁棒性,但不能很好的描述目标的局部特征。而卷积神经网络高层的卷积特征具有丰富的语义信息,能够很好的解决非刚性形变、遮挡等问题,并且能够对目标进行类间判别,对于目标的外形变化是鲁棒的。本文提出了基于多通道相关滤波框架、结合卷积神经网络多特征融合的跟踪算法。首先引入梯度直方图和颜色名特征,利用传统的特征提取方法将提取的特征进行简单的矢量相加;然后采用在Image Net上已经训练好的VGG-19网络结构进行特征提取,使用conv5-4卷积层的输出作为特征,再分别训练各自的相关滤波器,对特征响应进行可靠性加权求和获得目标位置。另外针对遮挡等因素引起的模型污染问题,设计了一种APCE的遮挡机制来判断模型的更新。最后采用数据集(OTB-100)对含有多个挑战属性标注的视频序序列进行定性和定量的实验分析,并与多种相关滤波跟踪算法作性能对比,实验结果表明本文所提出的算法当目标在快速移动,形变,遮挡,出视线等情况发生时,具有很好的鲁棒性和准确度。