论文部分内容阅读
目标跟踪是实现视频智能监视的基础,采用多个相机联合进行视频监视是智能监控系统发展的必然趋势。本文针对多相机环境下目标跟踪中的一些关键问题进行研究。
多相机联合目标跟踪要实现的单个相机视场中的目标检测与跟踪以及多个相机视场间的目标传递,是决定多相机联合智能系统有效性和目标行为分析正确性的两个关键环节。
本文采用背景差分法进行单相机视场内的运动目标检测,并采用单高斯模型对背景进行建模与更新。为抵抗多个目标间的瞬间遮挡、交叉,以及相似目标等干扰因素,本文联合了目标的颜色与运动信息完成对目标的跟踪。针对监视场景中个体目标之间存在严重遮挡粘连的情况,本文采用了先对相互粘连目标进行分割,然后再对分割后的目标分别进行跟踪的方法。
对粘连目标分割,本文提出了利用粗分割完成对监视视场中的目标定位与目标个数确定,细分割完成对目标的区域准确定位的构想。
在粗分割环节中,依据人体结构及行走姿态变化,构建了七种不同姿态的人体模型,并依据贝叶斯模型,将场景中目标模型的个数以及每个模型的位置,姿态等参数构成解空间,通过寻找使最大后验概率最大的解实现对目标的粗分割。
在细分割环节中,利用分水岭算法将图像划分为若干颜色分布一致的子块,然后对目标的不同位置选取种子块,最后通过块生长的方法确定目标区域。运动目标检测不准确会使目标区域包含背景像素,目标遮挡将导致目标模型相互遮挡,所以,采用位置和颜色的双重约束选取种子块,解决上述两种情况下的种子块选取问题。当相邻目标的颜色相似时,目标分割结果与生长顺序有关,所以首先通过2次生长确定目标颜色相似区域,然后对该区域,依据其产生的边缘能量进行判定,解决颜色相似目标边缘信息较弱时的目标分割问题。
一对于多相机间的目标传递问题,本文根据相机视场间是否存在重叠区域,分别采用了不同的方法对其进行了研究。
对于视场间有重叠区域的模式,本文利用不同相机间存在的位置对应关系进行联合目标跟踪。当目标相互遮挡时,会导致目标特征提取比较困难,为此,本文首先提出了构造融合所有相邻相机视场的一个全景视图,并在全景视图完成对目标的联合跟踪的方法。考虑到该方法需要满足监视目标位于同一平面内的条件,本文又提出了依据目标模型估计目标位置,并依此获得目标轴线特征,解决了目标分割不完整导致目标位置信息提取困难的问题。
对于视场间无重叠区域的模式,由于所监视的目标存在时空不连续性,所以本文联合颜色和位置信息综合进行目标识别。由于相机参数及光照条件差异影响,导致同一目标在不同相机视场内会存在一定颜色差异,所以,本文通过对相邻相机视场进行颜色校正的方法,使同一目标颜色分布趋于一致。
为克服各个单相机视场内的光照条件变化导致目标颜色变化对目标识别的影响,本文提出基于Gaussian光谱模型的颜色不变量特征。进行颜色的相似度评价时,采用了HP相似度。为避免熵估计时高维数据量化困难的问题,采用熵图进行相似度估计。将目标的速度信息作为辅助特征进行目标识别,排除了颜色相似目标的干扰,提高目标识别的准确率。
大量的测试比较实验结果表明,本文所提出的方法在多相机联合监视系统中,对人群这类的目标严重遮挡及粘连的场景,以及相机视场中存在颜色与光照环境变化的情况,均具有较强的适应性,能够完成对目标的正确跟踪。