论文部分内容阅读
随着互联网和图像采集设备的快速发展,数字视频及图像的数量呈爆发式增长。快速自动化处理海量影像,并从中自动提取出有效信息已经成为计算机视觉领域的一个关键问题。受到人类视觉系统的选择性注意机制的启发,将这一机制引入到计算机视觉领域,建立视觉显著性的计算模型可以使计算机自动过滤场景画面中的冗余信息,为后续的图像分割、图像及视频检索、场景语义理解等视觉信息处理任务提供有效的参考信息。本文的研究工作和贡献主要包括: 首先,针对自底向上和自顶向下方法的不足,结合生物底层视觉特性和高层先验知识,即格式塔(Gestalt)视觉心理学理论,并利用F-范数的最小化约束,提出了一种图像显著性检测算法。 其次,面向交通场景,提出了一种基于奇异值分解(SVD,Singular ValueDecomposition)的交通场景显著性检测算法。 最后,将图像显著性检测算法拓展到视频场景中,提出了静态和动态显著性检测算法和融合算法。针对多帧视频图像,采用改进的光流法对运动目标进行检测,并通过光流点的运动幅度衡量运动目标的显著性。利用视觉对色系敏感度的差异及视觉对运动和静止敏感度的差异特性,将前两个步骤得到的检测结果在同一画面中分别采用孟塞尔色系和灰度色系表示。 实验结果表明,本文提出的四个算法与其它同类型算法相比在各项评价指标上有明显的提升,且具有较高的鲁棒性。本文提出的图像显著性检测算法弥补了自顶向下和自底向上模型的缺点,增强了底层特征的有效表达。针对交通场景,本文提出的显著性检测算法能够有效并准确检测出场景中的显著性目标,如交通标志等。针对视频场景,本文提出的显著性检测算法能够有效抑制噪声影响。本文提出的静态显著性和动态显著性融合算法改善了视频显著性检测的可视化结果。