论文部分内容阅读
近年来,随着科学技术的发展和工业自动化水平的不断提高,智能机器人已成为目前国内外学术前沿和研究重点。机器人高度智能化的一个重要标志就是具备自主导航的能力,其中包含了环境信息的自动获取,处理,分析,理解和决策等一系列关键环节。视觉传感器具有获取信息量大、探测范围广和图像特征丰富等优点,已日益成为移动机器人感知环境的必备工具。视觉导航技术的研究具有十分重要的理论意义,在工业制造、国防和服务业中有着广阔的应用前景。目前,在已知或结构化的环境中,移动机器人的视觉导航控制理论和方法已取得了大量的研究成果,而在未知,非结构化环境中的自主导航问题仍然没有完全解决。因此,本论文主要面向机器人在未知环境中实现自主导航的迫切需求,以视觉传感器获取环境信息,通过图像信息有效的处理和与分析,着重解决未知、复杂环境下移动机器人的避障、目标检测与跟踪等关键问题,并且已取得了以下成果:(1).针对基于图像局部特征相似性的密集匹配展开研究与分析。根据不同的应用场合,提出被动式和主动式视觉的两种密集匹配方法。其一,提出了一种基于自适应权值滤波的密集匹配算法。其利用分级聚类方法将图像根据幅值相似性进行划分,并且构成自适应权值的匹配代价滤波模型。该模型不仅具有边缘保持特性,而且其时间复杂度为线性。通过大量的实验也证实:该算法在匹配准确性和处理效率上均优于目前的局部匹配算法。同时,本文还详细讨论了不同参数对于匹配准确度的影响,为实际应用提供参数选择的依据;其二,采用激光投射器向场景中投射光斑图案,并提出了一种自适应窗口匹配算法。其以积分灰度方差和积分梯度方差为图像纹理质量的衡量指标,与传统的图像方差计算方法相比,该算法在计算效率上明显有所提高。实际环境下的实验也说明:该算法能够有效恢复出复杂场景的密集视差图,且匹配结果不易受到物体自遮挡或者不连续区域的影响。(2).在2D图像的基础上,提出了一种基于广义Hough变换和随机蕨分类器的目标检测算法。该算法的核心包括:旋转和尺度不变的特征描述符提取、目标局部编码、随机蕨训练与映射表创建、Hough投票理论模型和局部极大值搜索方法。实验结果表明:该算法能够在复杂环境中有效地识别和检测感兴趣的物体,对旋转和尺度变化、环境光照变化、遮挡和非刚体形变等干扰因素具有较好的鲁棒性。同时,本文还详细讨论了该算法中各个参数设置对于目标检测性能的影响,为检测器的优化设计提供了指导原则。此外,本文还将上述检测器的思想推广至基于RGB-D图像的目标检测。相比于传统3D目标检测的方法,该算法有效减少了局部特征提取和匹配的计算量。同时,实验结果表明:该方法有效地将2D与3D信息结合,并且进一步提高未知复杂环境中物体识别与检测的准确性。(3).研究基于在线学习检测机制的目标跟踪技术。根据实际应用对算法实时性与准确性的不同要求,分别提出了基于整体区域检测与光流法的多目标跟踪算法和基于局部区域检测与分割的目标跟踪算法。第一种方法的核心主要有三点:首先,设计了一种多特征提取与融合方法。其将图像的灰度,HSV颜色和边缘的梯度信息结合起来表示目标的外观模型;其次,多目标级联分类器设计。该环节将随机蕨分类器和最近邻分类器级联构成一个强的多类别分类器;最后,将传统光流法与该多目标检测模块结合,使二者的结果能够优势互补。实验表明该算法能够在动态环境下,对单个或多个目标实现实时的跟踪,并且可以有效减小遮挡与环境光照变化对于目标跟踪算法的影响;第二种方法是针对在线目标跟踪过程中出现的样本漂移问题而设计的。该方法的主要的思想是:在基于局部区域目标检测的结果上,引入一种基于空间和图像信息聚类的分割方法。在局部区域编码时,根据局部区域与中心的位置关系将轮廓进行聚类;在区域分割时,根据空间和图像的信息进行轮廓的归类。这种自顶向下的分割方式可以从复杂的背景中准确分割出目标的轮廓,从而有效地避免跟踪过程中出现样本漂移的问题。跟踪实验结果证明:在各种复杂的场合下,该方法仍然能够稳定工作,而且能够适应物体姿态改变和非刚体的变化。(4).构建智能机器人视觉导航实验平台。针对未知环境中的避障、目标定位和跟踪任务,设计了机器人自主定位目标,并穿越狭窄通道的实验。实验结果充分验证了各章节所提出算法的有效性。