论文部分内容阅读
触觉是机器人感知系统的重要感官模态,是机器人与周围环境进行交流的媒介。随着应用于机器人灵巧手的触觉传感器精度不断提升,触觉信息对于物体接触面的描述也更加准确。通过对这些触觉信息进行分类处理,可以显著提高机器人的灵巧操作能力,这对于构建更加智能的机器人系统意义重大。以国家863项目“机械臂末端精细操作”的任务要求作为研究内容,完成对于灵巧手触觉信息的采集并设计算法实现了触觉序列的分类处理。使用清华大学计算机科学与技术系智能系统国家重点实验室中Schunk 7自由度机械臂搭载Barrett 4自由度灵巧手来组建实验平台,通过对包含橙色圆筒等在内的16种物体进行多位姿抓取完成了触觉数据集TSH-16的组建。该数据集相较其他研究者构建的触觉数据集,在规模及样本对比度上有着显著的优势。在对于触觉模态的表征中,首次使用以马丁距离作为距离衡量标准的线性动态系统来对触觉序列进行建模,并与K近邻算法结合组建了Martin-KNN算法用于触觉序列分类。通过与DTW-KNN算法的分类结果进行对比可知,以马丁距离作为距离衡量标准的线性动态系统触觉建模方式可以对触觉序列的时空特性进行细致描述。此后,在这种触觉模态表征基础上,继续构建一种系统包模型来对触觉序列进行模态表征,并结合流行的机器学习算法,使用支持向量机和极限学习机来训练分类器,完成了基于触觉分类的机器学习算法设计,并首次将其用于触觉序列分类处理中。在实验验证部分,使用触觉数据集TSH-16对各算法进行详细测评,并且为了验证算法的普适性,也使用其他研究者组建的4组触觉数据集进行分析,并绘制了最优分类时的混淆矩阵来对每个物体的识别能力进行描述。实验结果表明,各算法均能实现触觉序列的分类处理,其中基于极限学习机的机器学习算法分类效果最优。在未来的研究中,希望将分类算法应用于灵巧手的实时操作中,使得机器人在抓取过程中就可以实时完成对于抓取物体类型的判断。