论文部分内容阅读
基于视频的目标跟踪技术是计算机视觉领域的研究热点之一,它在视频监控、智能交通监控、人机交互、视频数据检索等领域具有广泛的应用。多摄像头系统相比单摄像头系统,能够提供大量信息冗余,提高跟踪的鲁棒性,因此近几年多视角目标跟踪技术受到极大的关注。多视角目标跟踪技术的实现存在着许多挑战和问题,跟踪场景的复杂性是所有问题产生的根源,跟踪场景的复杂性具体表现为背景干扰、目标形变、遮挡、光照条件变化等。为了在复杂的场景下进行精确跟踪,需要做以下两方面工作:第一,对跟踪目标进行有效的建模,目标模型是模型匹配和更新的基础,但是建模本身又产生了模型漂移的问题;第二,对多视角的信息进行有效的融合,包括多视角目标位置信息的融合和多视角模型融合等。为了应对复杂的多视角跟踪场景,本文首先讨论并完善了一个基于贝叶斯理论的分布式多视角目标跟踪算法框架。算法框架对多视角目标跟踪系统进行贝叶斯图模型的建模,有效推导出目标状态即目标位置的后验概率分布,利用粒子滤波方法对该后验概率分布进行逼近,从而完成多视角信息的融合,特别是多视角位置信息的融合。同时,算法框架中采用SSIM相似度指数评价目标匹配的程度,采用卡尔曼滤波算法对目标模型进行更新。实验结果表明,该算法框架能有效实现多视角位置信息的融合,解决跟踪过程中的遮挡问题,达到实时、高效、鲁棒的跟踪结果。然而,算法框架并没有解决建模中模型漂移和多视角模型融合的问题,所以下面针对这两个问题提出了相应的算法。在分布式多视角目标跟踪算法框架下,本文提出了一种基于特征子空间的自适应目标跟踪算法,以解决目标建模过程中的模型漂移问题。该算法在特征子空间中对跟踪目标进行建模,并计算跟踪目标的似然来自适应地调整模型更新的权重,以减小更新过程中样本误差积累导致的模型漂移。同时,跟踪算法对目标模型进行分块处理和更新以提高跟踪精度。仿真结果表明,跟踪算法能够高效、精确地跟踪目标,并能够很好地解决目标遮挡、形变以及由此引起的模型漂移等问题。为了解决多视角模型融合的问题,在分布式多视角目标跟踪算法框架下,本文提出了一种基于稀疏空间的多视角模型融合算法。稀疏空间也就是进行稀疏分解的线性空间,它也是特征空间的一种。该模型融合算法将多个视角的目标样本作为稀疏空间的基,候选目标可以在这个稀疏空间上分解得到稀疏系数,也就是得到了候选目标的稀疏特征。仿真结果表明,该算法不仅能避免模型漂移的问题,而且能有效地进行多视角的模型融合。