论文部分内容阅读
视觉跟踪是当前服务机器人领域的研究热点。本文提出了一种基于相似性距离的目标跟踪算法。该算法将视觉跟踪分为目标识别、目标跟踪两个部分。相似性距离决定执行识别或跟踪算法,并调整跟踪部分的粒子数目。本文采用基于特征匹配的方法识别并定位目标。为了有效描述特征,在比较多种图像特征描述方法的基础上,采用了鲁棒性较好的SIFT(Scale Invariant Feature Transform)特征进行描述。获取当前视觉图像的SIFT特征之后,采用BBF匹配方法与目标模板的特征进行匹配。由于BBF(Best Bin First)匹配方法具有一定的错误率,所以本文使用基于RANSAC(Random Sample Consensus)的方法来计算描述当前视野图像与模板图像对极几何约束的基础矩阵,并对BBF匹配的结果进行错误剔除。当剔除后剩余的匹配数目超过某一阈值时,就认为视野中存在目标,并利用特征坐标完成定位。该算法基于颜色分布信息进行跟踪。首先在先前获取的目标位置周围生成一定数目的粒子,平均分配权值。然后计算各个粒子与目标模板颜色分布的相似性距离,进而更新各个粒子的权值,加权平均预测目标的位置。当粒子数目较多时,将均值偏移引入跟踪部分。采用均值偏移算法确定当前视觉图像中目标的位置。完成跟踪部分后,要计算目标区域与模板的相似性距离,设定执行识别算法的阈值和进行均值偏移的阈值,并根据此距离做出判断。如果该距离大于识别阈值,则认为目标从当前视野消失,需要重新执行目标识别算法;如果该距离小于识别阈值,则跟踪成功,并根据该距离对下一次粒子滤波时产生的粒子数目进行调整。当相似性距离小于均值偏移阈值时,跟踪效果较好,此时粒子数目与相似性距离成正比;当相似性距离介于均值偏移阈值和识别算法阈值之间时,说明跟踪不太理想,需要增加粒子数目来改善跟踪效果。为了提高计算效率,采用较少粒子进行粒子滤波,并用均值偏移算法弥补粒子数目的不足。在跟踪基础上引入透视投影理论,提出了一种测量目标相对镜头的方位和距离的算法。方位和距离可以为机械手对目标的抓取提供信息。本文最后采用USB接口的摄像头对实际物体进行跟踪,跟踪一帧消耗的时间由粒子数目决定。可以通过实验设定相似性阈值,调节粒子数目,在保证跟踪准确的同时提高实时性,跟踪一帧消耗的时间约为5~10ms。实验证明该算法具有良好的实时性、准确性和实用性。