论文部分内容阅读
随着计算机技术的发展,智能移动机器人在各个领域的应用越来越频繁。移动机器人在执行各种复杂操作时,同时定位与建图(Simultaneous Localization and Mapping,SLAM)是真正实现移动机器人自主化的关键。采用视觉传感器的SLAM是目前的热门研究方向,其中能够同时获取深度图和彩色图的RGB-D相机为视觉SLAM提供了新的发展方向。本文针对RGB-D SLAM存在的特征点匹配精度不高、后端优化以及环境适应性不佳等关键问题进行了分析研究,具体完成的工作内容如下:(1)分析了RGB-D相机数据获取的原理;介绍了深度相机标定及深度图与彩色图的配准;基于Intel D435深度相机,实现了相机参数标定及深度图与彩色图的配准,并对其深度值测量精度进行了分析;基于D435实现了三种不同类型的视觉SLAM,通过实验表明RGB-D SLAM相比单目SLAM可以确定尺度信息、相比双目SLAM运行效率更高。(2)在SLAM前端,针对ORB特征点匹配时存在较多的误匹配问题,本文采用双向匹配和RANSAC算法相结合的方式来提高匹配的精度,匹配的正确率达到了95.2%,与单向匹配和RANSAC算法结合的方式相比提高了5%;根据本文匹配算法求解的结果,通过EPnP算法实现视觉里程计,其结果的均方根误差为0.085m,相比于单向匹配加RANSAC算法求解的结果精度提高了29%。(3)在SLAM后端,分别对位姿估计和三维建图进行优化,首先针对传统扩展卡尔曼滤波器优化效果不佳的问题,采用BA算法对位姿和空间点进行图优化,然后针对视觉里程计存在累计误差的问题,构建基于关键帧的位姿图并加入回环检测进行全局优化,进一步消除累计误差,优化前的均方根误差为0.085m,经过后端优化的均方根误差为0.033m,精度提高了61%;最后针对生成的原始三维点云地图进行滤波处理。(4)实现RGB-D SLAM的同时采用标准TUM数据集对RGB-D SLAM系统进行精度评估,以及在不同环境下的工程实现进行了分析研究及应用;首先通过标准数据集测得RGB-D SLAM位姿的绝对轨迹误差在4cm左右;然后在室内实际环境,分别采用手持相机的方式和基于履带式移动机器人的方式运行RGB-D SLAM,并构建室内三维地图;最后针对黑暗环境下单目、双目SLAM失效的问题,利用RGB-D相机的深度信息生成深度图,采用块匹配算法进行深度图匹配并实现位姿解算,实验表明采用深度信息可基本实现在黑暗环境下的位姿解算和初步建图。