论文部分内容阅读
图像融合就是把多个不同模式的图像传感器获得的同一场景的多幅图像,或同一传感器在不同时刻或不同方式下获得的多幅图像合成一幅包含输入图像相关信息的图像的过程。经过融合后的图像可信度、清晰度均有提高,其可理解性更好,更适合人的视觉以及计算机的检测、分类、识别、理解等处理。多聚焦图像的融合是图像融合中的一个重要分支。由于光学成像系统聚焦范围有限,多聚焦图像就是同一光学传感器对同一场景中不同距离的目标采用不同聚焦点获得的图像在同一聚焦下无法获得该场景中距离不同的多个目标都清晰的图像,因此需要对不同距离的目标采用不同聚焦点获得多幅图像,然后通过提取这些图像中各自的清晰区域,融合生成一幅各个目标都清晰的图像。目前多数融合算法对低频子带系数的选择采用的是一种“平均法”系数选择融合规则,在一定程度上降低了融合图像的对比度,使得源图像中一些有用信息丢失。针对以上情况本文将局部熵与非向下采样Contourlet变换相结合,提出了一种多聚焦图像融合的算法。并做了对比实验,结果表明本文方法效果有明显的提高。红外和可见光图像传感器在军事、安全监控领域的用途广泛。可见光图像是反射图像,高频成分多,在一定照度下能反映场景的细节,但照度不佳时的可见光图像(即微光图像)的对比度较低;红外图像是辐射图像,灰度由目标与背景的温差决定,不能反映真实的场景。单独的可见光或红外图像均存在不足,图像融合技术能够有效地综合它们的特征信息,增强场景理解,突出目标,有利于在隐藏、伪装和迷惑的情况下更快、更精确地探测目标。本文针对红外与可见光图像的互补信息特征,并结合非向下采样Contourlet变换,提出了一种红外与可见光图像融合的算法,并做了对比实验,实验结果表明该方法有效。