论文部分内容阅读
智能视觉检测和跟踪是近年来计算机视觉领域的一个新兴研究方向,基于计算机视觉方法对摄像机获得的视频数据进行分解、学习,并以此为基础对视频进行视觉检测和跟踪,从而使计算机系统具有像人一样的智能,其领域包括:模式识别、图像处理、计算机视觉、人工智能等方面的科学知识。当前,世界上大量的科研人员和高校机构已经展开了视觉检测和跟踪方面的研究。本文从智能视频网络跟踪这一应用出发,以单摄像机运动目标检测与跟踪展开工作,结合各种模式识别和人工智能的研究方法,研究基于多摄像机的目标检测和跟踪算法。本论文的主要工作如下:(1)针对多摄像机视频跟踪场景和跟踪目标更复杂的问题,构建了一种高鲁棒性的视频跟踪框架并扩展到多摄像机视频跟踪中。这个跟踪框架使检测模块、跟踪模块、预测模块和学习模块相互协同并用于多摄像机跟踪网络。首先,检测模块可以利用好每一帧鲁棒特征的检测信息;其次,跟踪模块很好地利用帧与帧之间的跟踪信息;再次,预测模块用于估计当前帧位置的中心目标而减少检测的时间并提高跟踪效率。最后,学习模块可以对检测模块和跟踪模块的信息不断的学习和更新。(2)提出一种应用于多摄像机视频跟踪的新纹理特征描述子x-bit BP,并利用人工免疫随机森林对纹理特征进行快速计算和统计;然后将x-bitBP纹理特征与颜色特征进行信息融合,从而组成一种更加鲁棒的目标特征;同时,添加亮度转换函数以改善光照变化对视频跟踪结果影响的问题。(3)针对多摄像机视频跟踪算法中学习模块和更新的问题,提出了多状态自学习模板库更新算法(RS-TLU)。根据跟踪目标、历史模板和瞬时模板的相似性,RS-TLU算法将跟踪结果分为三个状态,即稳定状态、逐渐变化状态和突然变化状态,并用运动信息和遮挡信息来判断每个状态的跟踪结果。(4)基于论文中提出的跟踪算法和模板更新算法,设计出融合多摄像机的智能分布式跟踪系统。在该系统中,将摄像机Agent应用到视频跟踪过程中,通过学习摄像机本身与背景环境,并利用摄像机之间的通信机制完成跨摄像机间的良好通信与智能协作,从而更好地解决由遮挡、光照变化、目标运动、目标消失等复杂场景带来的问题,完成对跟踪目标的鲁棒跟踪。