论文部分内容阅读
自主导航是智能移动机器人核心技术,以模仿人类认知方式的视觉自主导航成为自主导航的研究趋势。目前视觉导航算法都需要搭载高成本和高运算能力的处理器才能实现图像实时处理,而且在视觉特征不够丰富的场景容易定位失败,同时,由于定位误差大导致重构的3D模型精度低。本文针对这些问题,提出了云框架下的低成本机器人视觉自主导航算法,围绕云框架下的基于共视图的机器人高精度定位和高精度稠密点模型即时构建两个方面展开研究,主要贡献如下。针对目前机器人视觉自主导航都需要搭载高成本处理器的问题,本文提出了云框架下的低成本机器人视觉自主导航算法。以三层结构的云框架来构建一个基于视觉特征和3D几何结构特征的定位以及稠密点模型重建的系统,包括机器人客户端和本地服务器端,以及私有云端。将高精度定位算法和3D模型重构算法放在强运算能力的服务器端,粗定位算法放在低成本的机器人客户端。云框架的算法结构在保证了高精度的定位和建模的前提下,降低了机器人对处理器配置的依赖,机器人搭载更少的内存和更弱的运算能力的处理器,也能实时定位。针对机器人在视觉特征少的场景容易定位失败的问题,本文提出了基于视觉特征和几何结构特征相结合的定位算法。在视觉特征丰富的地方,采用基于视觉特征来定位,当机器人视觉特征定位和重定位都失败之后,启用基于几何结构特征定位算法来估计当前机器人位置。同时,加入共视图构建关键帧间,关键帧与3D特征点的约束,通过局部捆绑来优化局部关键帧和3D特征点的位置,抑制位置累计误差,通过可视搜索快速查找闭环帧,利用全局捆绑来优化整个3D特征点和所有关键帧。云框架下的自主导航系统需要网络通讯来联系机器人客户端与本地服务器端,针对网络时延甚至异常等不可避免的情况,本文在机器人端加入局部共视图来增加机器人定位对网络问题的容错性。针对传统3D模型重建算法重建出来的模型精度差的问题,本文提出了基于关键帧的3D稠密点模型即时构建算法。通过点融合,把高精度的关键帧加入到稠密点模型中。同时,引入深度相机的深度测量误差模型估计关键帧的自信度,以及闭环矫正来提高稠密点模型的精度。由于直接利用点融合而不基于TSDF来融合模型,减少了GPU内存消耗以及提高整个系统的实时性,并且得到了高精度的3D稠密点模型。在该视觉导航算法的基础上,设计了一套智能家用机器人导航系统。