论文部分内容阅读
随着技术的进步,灵巧假肢在灵巧性方面取得了很大的进步,现代灵巧假肢可以复现人手的多种抓取模式。但在灵巧假肢的控制和交互方面,传统的肌电假肢控制方法已经不能满足多自由度灵巧假肢的控制。为了提高假肢用户的接受度,实现灵巧假肢的闭环控制,当前急需一种直观性好、鲁棒性高和交互性好的控制方法。本文在自主研究课题的支持下,基于眼动追踪技术研究一种利用人体视觉通道实现灵巧假肢控制的方法,并完成该方法的实验验证。并基于增强现实技术实现灵巧假肢抓取过程中的多指抓取力、表面肌电信号和接触状态的反馈接口,拓宽了用户和灵巧假肢之间人机交互信息带宽,使得用户对灵巧假手有更全面的控制。首先在抓取模式分类的基础上,基于Open CV库设计了灵巧假肢眼控人机交互接口,并采用Fitts’Law评估指标体系,分析抓取模式菜单的宽度因子对眼控交互接口性能的影响,选出合适的抓取模式菜单尺寸,编制眼控人机交互界面。然后,根据人手结构设计了15自由度虚拟假手模型,实现了虚拟假手四种抓取模式(柱形抓取、球形抓取、三指抓取、侧边抓取)的仿真。针对当前假肢控制过程中缺乏反馈的问题,本文基于增强现实技术,在Untiy3D平台中编写灵巧假肢眼控人机交互程序,实现了假肢抓取过程中的眼动数据、抓取模式、表面肌电信号、多指抓取力和接触状态信息的反馈接口,实现灵巧假肢对用户的主动反馈,完成抓取的闭环控制。最后,搭建了基于眼动追踪的灵巧假肢控制平台,使用户可通过眼球运动选择假手的抓取模式,并通过肌电信号控制假手的开合运动。通过多物品抓取-转移实验验证了利用眼动视觉控制假手抓取的有效性,实验结果显示,完成抓取模式的选择时间平均为1s,远小于肌电编码式控制方法(>4s),抓取成功率100%,单次抓取时间小于16s。