论文部分内容阅读
导盲机器人相比于生物类和简单机电类导盲方式具有不受训练周期长、智能化程度高等优点,能够更好地为视力障碍者提供导引功能,属于服务机器人范畴。为了实现帮助视力障碍者安全地行走,导盲机器人需要的信息包括环境中是否存在障碍物、障碍物的位置点以及如何避开障碍物,而解决这些问题最关键的技术是机器人同步定位与构图(SLAM,Simultaneous Localization And Mapping)。目前针对机器人SLAM的研究主要包括基于激光传感器的SLAM和基于视觉传感器的SLAM。本文通过实验研究发现激光传感器构建的环境地图较精确,实时性高,但由于其只能探测特定平面的障碍物信息,导致容易缺失环境中存在的小障碍物信息;视觉传感器能够获取丰富的环境信息,构建的环境地图相对完整,但由于其测量误差大,导致地图不够精确,且由于获取的特征信息过多,导致计算大,可能出现地图断裂问题。由上可以看出单个传感器在机器人同步定位与构图问题的解决上均存在局限性。针对以上问题,本文同时利用激光传感器和Kinect视觉传感器作为导盲机器人的外部感知工具,结合两种传感器各自的优点,获取环境的冗余信息,同时为了避免出现地图断裂问题,提出一种融合激光传感器和Kinect视觉传感器的算法。首先,将Kinect视觉传感器获取的深度图像经过坐标系转换得到三维点云图像、通过限制垂直方向滤波器过滤无关点云信息限制三维点云高度、再将过滤后的三维点云图像投影到水平面并提取边界点云信息转化为伪激光扫描数据;然后,通过动态调整加权因子系数的加权平均法融合Kinect视觉传感器转化的伪激光数据与激光传感器的扫描数据;最后,输出融合数据,并与里程计数据一起实现导盲机器人的构图及自主导航。本文在自行搭建的实验场景内分别进行了单独激光传感器、单独Kinect视觉传感器以及融合方法构建地图和自主导航实验。实验结果表明,本文融合方法构建的环境地图相比于其他两种单独使用某个传感器构建的环境地图更加精确且完整,自主导航更加安全,能够更好地实现帮助视力障碍者安全行走的目的。此外,由于算法中设计了过滤无关点云信息步骤,降低了计算量,保证了导盲机器人SLAM的实时性;对于我国导盲机器人的应用推广具有较大意义。