论文部分内容阅读
近年来随着深度学习技术的快速发展和大规模图像数据集的公开,基于深度学习的跟踪方法在各大测试平台上展现出了优异的性能,但想要设计一个适用不同应用场景的鲁棒跟踪算法由于跟踪对象多变、序列间外观变换频繁等原因仍然比较困难。为了解决常规RGB场景下基于检测判别式的跟踪网络中存在的过于依赖目标实时外观特征和对被跟踪目标相似物抗干扰能力较差等问题,本文设计了一种结合卷积网络层和DAGRNN层的跟踪网络,将图像语义分割领域中的DAG-RNN用于处理待跟踪序列每一帧上的目标区域,使用无向循环图(Undirected Cyclic Graph,UCG)对图像区域进行近似分解,并使用有向无环图(Directed Acyclic Graph,DAG)对其进行子图像块邻域上下文依赖关系建模,增强了网络对于与目标相似的干扰物的判别能力和鲁棒性能。针对目标在序列间运动状态对预测输出的边界框位置的影响,应用运动状态修正网络以使预测输出的边界框位置更加准确。在OTB-50和OTB-100两个测试平台上的大量对比实验与定性分析表明本文的方法能够获得较高的Precision和Success得分,在BC和LR等多项属性下可获得较为优势的性能表现。基于检测判别式的跟踪方法一般使用在线更新的参数微调策略(Online Fine-Tune)来获取不同跟踪对象的通用特征表示,但在跟踪过程中需要提取大量的目标正负样本来对网络进行参数在线微调,这会导致计算损耗过大和跟踪实时性过低等问题。为了解决这个问题,本文在现存方法的基础上改进设计了一种使用离线训练方式且具有更深网络层的基于孪生架构实现的实时跟踪网络,使用端到端离线训练的方式使整体网络参数在预训练阶段得到优化。在VOT2017测试平台的标准评估方式和Real-Time实时评估方式下的EAO和A-R Rank评估结果表明本文的方法能够在保证一定准确性的情况下使跟踪的实时性能得以改善。基于孪生架构的模版匹配式跟踪方法通常只使用第一帧的图像区域特征作为目标模版,因此在后续帧上对于目标不断变化的外观特征响应是比较滞后的。为了解决这个问题,本文针对热红外图像应用场景在现有相关方法的基础上改进设计了一种实时更新模版的孪生架构跟踪方法,通过在孪生网络的两个分支上分别应用模版实时更新策略和最优搜索区域的背景扰动抑制方法,结合前序帧上的预测目标区域实时地更新目标模板,并根据目标位置进行背景区域扰动抑制,此外针对TIR场景使用从多个公开的热红外图像数据集中提取的TIR图像序列训练神经网络,在PTB-TIR和VOT-TIR测试平台上的大量对比实验和定性分析表明本文的方法在BC、MB和LR等不同属性指标下能够体现一定的性能优势。