论文部分内容阅读
为视障人士设计的可穿戴辅助设备中,纸币识别是必不可少的基本功能。根据文献调研,传统的纸币识别方法多应用于金融服务系统,识别场景固定、背景单一、光照无明显变化,少数应用于视障人士领域的方案均采用RGB相机,实时性较差,无法满足视障人士纸币识别的实际应用。本文提出了一种有效的解决方法,测试者只需在可穿戴样机前面放置一张纸币,样机可立即准确识别面值并反馈结果。该方法首先通过RGB-D相机获取深度不超过0.8米手臂长度范围的近距离场景,通过Haar特征和Adaboost算法训练获得的分类器检测近距离场景中的疑似纸币区域;将这些区域的SURF特征点与标准纸币区域的SURF特征点匹配,匹配过程采用优化算法,可以筛选出高质量匹配点对,匹配点对数量的极大值对应的面值即为纸币识别的结果;最后,将结果通过声音传递给测试者。同时,为形成完整的纸币识别系统,结合视频流的输入,加入帧间差分检测、深度填充比判断、多帧累计结果输出,提高算法的实时性与稳定性。该方法使用RGB-D相机,结合机器学习和SURF的改进算法,使最终的纸币识别继承了 SURF算法的尺寸不变性和旋转不变性的优点,并且可以在图像有缩放、旋转、部分遮挡、光照变化、方向颠倒、运动模糊、背景杂乱和多张纸币时均可以得到正确的检测结果,具有良好的鲁棒性;同时,使用机器学习大图像粗定位,SURF特征小区域精匹配,兼顾了实时性,可应用于视障人士的实时纸币识别。