论文部分内容阅读
智能视频监控技术是新兴的一个研究方向,是近年来计算机视觉研究领域中的一个热点。而视频超分辨率重建、视频图像分割、场景建模与目标跟踪是智能视频监控系统的关键技术,是目标识别、行为分析等更高层次的视频分析技术的基础。本文基于视频分析的应用,对视频超分辨率重建、视频图像分割、动态场景建模以及视频目标跟踪等智能视频分析核心技术进行了深入研究。首先研究了视频超分辨率算法。视频超分辨率算法的一个必要步骤是视频的运动估计,而相对于其它的图像匹配算法,基于特征点的视频匹配算法具有更高的鲁棒性,但是基于特征点匹配算法的精确度受特征点的定位、选取和匹配误差的影响很大。针对这些问题,本文提出将粒子滤波应用到视频超分辨率的运动估计问题中,用粒子滤波来修正匹配误差,并针对粒子滤波中的粒子匮乏问题改进基本粒子滤波。实验结果表明,本文提出的算法比其它经典滤波算法估计精度有了明显地提高,充分体现了提出算法的有效性;而且本文提出的算法在超分辨率重建中能更精确地进行运动估计,匹配精度和稳定性方面优于文献中提到的其它超分辨率重建算法。其次研究了图像的阈值分割问题,提出一种局部变异粒子群算法来解决多阈值分割问题。最大类间方差阈值化(OTSU)算法是常用的图像阈值分割算法,但由于其计算的穷举性,使其无法完成多阈值分割任务。针对这个问题,本文提出利用局部变异粒子群算法解决多阈值OTSU算法的图像分割问题。局部变异粒子群算法中,当粒子满足变异条件时对粒子进行局部变异操作,代替原来重新初始化的操作过程,即减少了工作量,又有效保留了前期工作的有用信息。实验表明,相对于经典的粒子群算法,局部变异粒子群算法有更快的收敛速度,平均收敛精度有了明显地提高,而且有效地解决了多阈值OTSU算法的图像分割问题。第三研究了动态场景建模问题,提出一种自适应混合高斯建模算法。混合高斯分布算法是一种常用的背景建模算法,但如何选择背景更新速率是算法的关键。基本混合高斯分布模型所有区域采取固定的更新速率,使得无法适应不同变化速度的场景。针对这个问题,本文提出自适应混合高斯建模算法,将一般的混合高斯建模与背景差分算法相结合,并对背景差分检测出的前景和背景区域采用不同的更新速率,对前景区域采用自适应更新速率。实验结果表明,相对于目前流行的其他背景建模方法,本文提出的算法能够更有效地滤除动态场景内的局部运动,较好地对背景进行建模,克服背景噪声。第四,研究了目标跟踪算法,在分析连续自适应均值偏移算法(Camshift)原理的基础上,提出一种快速连续自适应均值偏移算法(FCshift).经典的视频目标跟踪算法Camshift算法具备计算量小的优点,但在某些实时性很强的领域,如何进一步缩小Camshift算法的计算量仍然是一个亟待解决的问题。目前国内外学者对此问题尚无深入讨论。本文通过对Camshift中迭代过程和帧间计算量进行建模,定量的分析了扩展窗口的大小与计算量之间的关系,推导出优化扩展窗口的计算依据,从而提出快速连续自适应均值偏移算法FCshift。实验表明,在相同实验场景下,FCshift的平均运行时间比使用各种扩展率的Camshift的平均运行时间降低了20%以上。