论文部分内容阅读
位置识别是利用数据关联与匹配技术,判断当前位置是否是移动机器人已经到过的地方。位置识别技术常被用在机器人即时定位与建图(SLAM,Simultaneous Localization and Mapping)中,实现机器人的实时定位,或通过闭环检测实现地图的全局校正。随着移动机器人领域中视觉传感器的广泛使用,视觉位置识别技术成为机器人完成自主导航任务的关键技术,特别是其在长期大规模场景中的应用,成为智能车辆等热点研究领域实现快速发展的基础。由于长期复杂场景中的剧烈环境变化,如光照、天气、季节等变化,使得视觉数据的特征提取难度加大,SIFT[12]等手工设计的特征描述方式在这种情况下的视觉位置识别任务中难以胜任位置描述的需求。进行了充分有效预训练的卷积神经网络(CNN,Convolutional Neural Network)对视觉数据有非常强大的特征提取能力,可以适应视觉位置识别中的剧烈环境变化。据此,本文提出了一种基于卷积神经网络提取图像特征,并通过特征融合、二值化和序列图像匹配等方法实现位置识别的新方法。首先,提出了一种利用CNN模型提取图像特征的方法。在对经典CNN网络在场景识别任务中的表现综合考量的基础上,设计了一种基于VGGNet[20]的CNN模型,通过修改网络结构和层参数,融合三层卷积层数据,并通过池化层实现数据降维,实现特征的提取和融合。其次,提出了一种特征二值化方法。将从CNN网络提取到的特征数据通过一定的计算方法,从浮点型数据转化为二进制数据,以实现特征的汉明距离132]匹配,提升算法效率。再次,提出了一种序列图像匹配的位置识别方法。图像序列包含视觉数据的上下文信息,可以有效消除算法中的假阳性识别结果,提高算法的精准率。为验证本文视觉位置识别方法的有效性,在具有挑战性和代表性的开源数据集中进行与当前主流算法的对比实验。首先通过实验选取CNN模型的结构和层参数,完善特征提取方法,然后通过实验分析在序列图像匹配方法中的序列长度值得设定。最主要的,将本文的方法与当前主流的算法FabMap[8]、ABLE-M[11]和SeqSLAM[10]进行比较实验,证明了基于CNN特征的视觉位置识别算法在长期大规模场景中的鲁棒性。视觉位置识别作为移动机器人实现自主导航的关键技术,对SLAM过程中的即时定位和地图的全局校正均有着极其重要的作用。本文基于CNN特征提取,结合汉明匹配和序列图像匹配方法,实现有效的视觉位置识别方法,希望能对机器人技术的发展起到一些推动作用。