论文部分内容阅读
随着科技的进步与视频监控数据爆炸性的增长,使得视频目标跟踪成为计算机视觉的热门领域,其广泛的应用在视频监控、航海探测、人机交互和军事领域中。但是在实际跟踪过程中却面临着很多的跟踪难点,例如遮挡、光照变化、背景复杂和相似物干扰等。在众多挑战中,最棘手的莫过于遮挡,例如近两年比较流行的核相关滤波跟踪算法,其在目标发生遮挡时直接采用遮挡的样本对分类器进行在线训练,致使分类器性能弱化,从而发生跟踪漂移。本文为了改善核相关滤波跟踪算法在目标发生遮挡时对应的跟踪性能,在此基础上进行了改进,提出了一种基于深度学习的视频目标跟踪方法。为了解决遮挡引起的丢失问题,首先建立了一个目标遮挡检测模块,该模块主要根据目标正向跟踪与反向跟踪效果应该一致的思想,提出了基于一步回溯的目标遮挡检测算法,该算法通过计算历史跟踪框与当前框之间的重叠率来确定一步回溯的帧数,然后通过一步回溯得到的回溯框与目标真实框之间的重叠率来判定目标是否发生了遮挡以及对应的遮挡程度,即是局部遮挡还是严重遮挡。针对于遮挡首先考虑到历史训练样本的可参考性,提出了融合历史训练样本的核相关滤波器目标跟踪算法,该算法结合历史数帧目标样本的方式来扩容样本数量,减少当前遮挡帧的负样本对分类器性能的影响,然而其针对于局部遮挡效果较好,但当目标发生严重遮挡、丢失时,其对应的性能依然不佳;为了更好的进行性能优化,本文受到近年来深度学习在目标检测领域的广泛应用和深度学习网络独特优势的启发,将深度残差网络ResNet应用到跟踪算法中用于目标丢失再检测,并针对于跟踪数据的特性将传统ResNet进行改进,从实现更鲁棒的长时间视频目标跟踪。最后,为了验证本文所提出的基于深度学习的视频目标跟踪方法的可行性和鲁棒性,将本文方法与当前比较流行的视频目标跟踪方法TLD、Struck、STC、KCF进行对比。首先通过实验进行遮挡阈值的设置、历史训练样本帧数的确定和ResNet网络输出维数的配置,然后在保证实验环境、数据集和评价指标相同的条件下,通过大量的实验结果对比、定量分析和定性分析证明了本文基于深度学习的视频目标跟踪方法的有效性和鲁棒性。