论文部分内容阅读
自然场景识别作为模式识别的一个重要分支,在无人车及机器人应用方面有着十分重要的研究价值。然而图像成像场景复杂多变,单一彩色场景图像信息不够丰富,使得场景识别的精度难以提升。而多源图像融合可以改善实际应用系统的可靠性、鲁棒性,提高图像信息的利用效率,结合不同传感器的信息互补优势,可以做到更全面的描述及识别待测场景图像与目标。随着可见光-近红外共平台成像系统的普及,智能化自然场景识别正在成为当前的研究热点。为此,针对典型自然场景智能观测的需求,本研究课题提出一种将近红外图像和可见光图像融合并应用在类字典稀疏场景识别框架上的方法。首先把待测场景对应的可见光图像通过亮度图像编码变换到HSV空间,并将HSV空间中的亮度通道替换为近红外图像;之后将替换后的图片还原到RGB空间,得到融合的彩色图像;然后进行全局GIST特征和局部PHOG特征的提取与融合;最后结合类字典稀疏识别得到场景分类结果。实验结果表明,在RGB-NIR数据库上的实验识别精度达到了74.75%,高于其它相关方法,通过数据分析可见,融合近红外信息的场景图像的识别精度高于未融合时的识别精度,换言之,提出的近红外图像融合的思路能够使得场景信息更加丰富,对于场景识别领域应用系统的研发拓展有较好的借鉴意义。