论文部分内容阅读
视觉里程计是移动机器人的自动定位和导航的基础,机器人视觉是机器人领域的重点之一,其发展程度关乎机器人的智能化程度,而SLAM同步定位和建图技术是其中的重点技术。移动式机器人通过自身或者外部的传感器采集信息进行导航和定位,其中RGB-D相机是一种常用的视觉传感器,RGB-D相机可以同时采集彩色和深度信息,其应用技术是目前国内外研究人员的研究热点。但基于RGB-D相机的视觉里程计仍然存在问题:如外界噪声处理;机器人视觉技术的关键点在于特征点的提取和匹配,特征点处理精度影响机器人位姿和空间位置估计的准确度,平衡特征点处理的实时准确度和计算资源消耗,本文做出以下研究:1.通过刚体在三维空间中的旋转、平移的数学表示方法,使用Eigen库进行旋转矩阵及变换矩阵计算,利用李群SO(3)和SE(3)以及对应的李代数so(3)和se(3),描述位姿的表达和转换;通过BCH线性近似,针对李群进行扰动对李代数进行求导,使误差减小;2.运用Open CV中的去畸变函数进行了图像的去畸变处理;对RGB-D相机的深度图像进行处理,形成三维点云地图;通过高斯牛顿法、Cere和g2o库三种非线性优化方法进行同一曲线的拟合,进行对比分析;3.通过对ORB特征点的FAST关键点和BRIEF描述子的计算和匹配,并对匹配点进行汉明距离筛选,得到相邻两帧图像的ORB特征点匹配情况;通过ICP中的SVD法进行相机位置计算,得到旋转矩阵R和平移向量t,实现RGB-D相机的相邻两帧间图像的视觉里程计;4.通过Linux为软件系统搭建视觉里程计,获取TUM的标准RGB-D测试集作为RGB-D图像来源;经过对室内环境、大型室内环境、纹理环境和存在动态物体的四种环境进行验证,最终输出相机运动轨迹。本文通过在Linux系统处理RGB-D视频数据所获取的场景信息,实现了基于RGB-D相机的视觉里程计。结果表明:采用高斯牛顿法、Cere和g2o方法均能够实现较好的曲线拟合,但计算效率差异明显;为了提高特征点提取和匹配的准确性和实时性,使用ORB算法进行特征点的处理;经过四种环境进行验证,实现的视觉里程计结果具有一定的鲁棒性,对于纹理环境和存在动态物体的环境仍然需要进行算法优化,以提高其运动轨迹估计的准确性。