论文部分内容阅读
近年来,随着Microsoft Kinect、time-of-flight(ToF)等3D相机的迅速发展,深度图已经广泛应用计算机视觉领域中,比如人机交互、增强现实和场景分析等。然而,受外在条件和设备本身所限,用3D相机采集到的深度图像往往存在着分辨率低、带大量噪声干扰以及深度边界结构丢失的问题,导致这些深度图难以直接用于深度感知和3D重建,因此对低分辨率的深度图进行超分辨率重建就具有十分重要的意义。许多学者提出了多种算法来解决图像的超分辨率问题,本文在前人的基础上采用稀疏表示理论来实现深度图像超分辨率重建工作,具体如下:第一,基于深度图像的纹理特征提出了一种多方向字典的深度图像超分辨率重建方法。该方法里的多方向字典与图像块的几何方向相关,并且对图像信息的表达比传统字典更加稀疏和高效。该方法将重建工作分为字典训练部分和重建部分:在字典训练部分,首先将图像块根据其几何方向进行分类,然后在每个类里训练得到一个字典;在重建部分,根据输入的图像块的几何方向,选择相应的字典。除此之外,也将彩图信息作为先验信息加入到重建模型之中。实验表明,本文方法能够在不同的放大倍数条件下获得比当前主流算法更好的主观结果和客观结果。第二,提出一种基于多方向字典与自回归模型的深度图像超分辨率重建模型。该模型结合了稀疏表示模型与自回归模型的特点,利用自回归模型能有效的处理图像边缘轮廓区域的优点来提升图像轮廓细节的重建质量。该超分辨率重建方法分为两个部分,即字典训练部分和联合约束重建部分。在字典训练部分,该模型将在每个类里训练得到的字典组合成为一个字典,该字典比单独每个类中的字典对信号的表达更加稀疏。在联合约束部分,该模型结合稀疏表示模型和自回归模型建立起联合约束模型,并对模型进行高效的求解。实验表明,相比于主流算法,该模型能够获得更加丰富的纹理细节和更高质量的高分辨率图像。