论文部分内容阅读
近年来基于移动设备的眼动跟踪技术逐渐成为一个研究热点,并得到了迅速发展和应用推广。但是由于受到移动设备软硬件性能的限制,眼动跟踪精度和效率较低,通常还需要外部硬件设备的支持。这不仅提高了开发成本,也增加了使用难度,极大降低了其实际应用价值。为此,本文基于众包机制研究用户注视点自我回忆和报告方法,开发了移动设备上的眼动跟踪数据获取系统。具体研究工作包括以下三个方面:(1)用户注视点回忆任务的众包方法研究。在上下文感知环境下,应用众包技术实现用户注视点回忆任务的发布和结果回收。任务发布用户通过众包平台发布注视点回忆任务,并回收任务结果,以可视化形式查看任务结果;工人用户在众包平台上查询、接受并完成注视点回忆任务。(2)基于上下文感知的任务分发研究。为了提高用户注视点回忆的眼动数据计算精度,并减少噪声数据,基于位置和速度上下文感知技术进行注视点回忆任务的分发。根据用户当前在室内、外所处的不同位置向用户分发难度合适的任务,并同时适当增加或减少测试图片数量;在用户处于不同运动速度时,根据运动速度的快慢,相应的进行不同难度任务的分发。将使用上下文感知技术和不使用上下文感知技术的眼动注视点数据进行对比,结果显示,使用上下文感知技术之后,完成任务的效率得到提高,平均每张测试图片用时减少1-1.3秒,注视点回忆数据精度提高25%~30%。(3)基于支持向量回归的误差补偿模型研究。为了进一步减小注视点回忆数据的误差,基于支持向量回归方法建立用户注视点回忆数据与眼动仪获取的真实注视点数据之间的映射关系,并通过标定方法训练眼动数据误差补偿模型,对用户回忆注视点数据进行误差补偿,从而减小其与真实注视点数据之间的误差,提高注视点回忆精度。将使用误差补偿模型和不使用误差补偿模型的注视点回忆数据进行对比,结果显示,使用误差补偿模型后,注视点回忆数据的精度有所提高,对于不同类型的任务和测试图片,精度提高了15%~40%。在上述工作基础上,设计与开发了基于智能手机的眼动注视点数据获取原型系统,并针对用户注视点回忆精度和原型系统进行了用户实验。对实验获得的用户注视点回忆数据进行可视化处理与分析,绘制注视点热区图、概率密度分布图,并与眼动仪获取的真实注视点数据进行对比。结果显示,两者的卡方距离在0.3~1.5之间,Pearson相关系数在0.4~1之间,说明用户注视点回忆数据与眼动仪获取的真实注视点数据具有较高的一致性,从而验证了本文注视点数据获取方法的可行性和有效性。