论文部分内容阅读
视觉跟踪,就是在视频图像序列中对运动目标进行检测、提取和识别,从而获得目标的位置、速度、加速度及运动轨迹等运动信息,实现对目标运动行为的理解。随着廉价的摄像采集终端的逐渐增多,以及自动视频分析需求量的不断增加,视觉跟踪算法已经开始引起越来越多的关注。但是由于人们对跟踪精度的要求越来越高,对速度的需求越来越苛刻,跟踪场景和目标运动的复杂性不断提高,因此设计一个不受约束的视觉跟踪算法仍面临着很大的挑战,是未来的一个重要发展趋势。本文旨在针对单目标的跟踪问题展开研究,基于实际的复杂场景,提出建立一种深度上下文模型来进行运动目标的跟踪,实现良好的跟踪鲁棒性和精确性。首先,为了能够在前人的基础上提出合理的改进和优化,本文广泛研究了视觉跟踪算法的各种基本理论和技术,对跟踪算法流程进行了划分,并分析各个步骤中常用的一些方法及对比其优缺点,为后续提出新的方法奠定了理论基础。其次,本文基于相关滤波的技术,通过构建滤波模板在图像中进行采样,计算并确定响应最大的位置为目标中心点。通过引入深度图像,可以弥补三维空间到二维平面映射的信息损失,同时利用跟踪目标及其周围区域信息来辅助确定目标的定位。第三,本文引入并优化图像分割中的区域生长算法,利用跟踪目标在深度图像上的连续性和稳定性,实现更加精确的目标的尺度调整。本文还提出了一种依据深度图像判断目标遮挡状态的方法以及相应的模型更新参数的策略,保证在长时间跟踪中鲁棒性性能可以得到提升。最后通过大量定性和定量的对比实验,从综合性能,尺度调整性能,遮挡处理性能等不同角度证明了本文提出的算法在准确性和鲁棒性上和主流的视觉跟踪算法相比要更加出色,同时在速度上也可以达到实时性的要求。