论文部分内容阅读
尽管科技在以惊人的速度发展,但并不能把灾难全部准确及时地预测出来。地震、海啸、火灾等自然灾难仍在肆虐地吞噬着无数生灵。灾难过后如何高速、有效的救灾也成为了近来人们研究的焦点,目前的救灾多以人力搜寻为主,这在灾难现场的危险环境中,有时不仅仅没有救出遇难者,反而由于情况的突变,使得救灾人员的生命受到了威胁,在这种情况下机器人救灾势在必行。本文以研究救灾机器人视觉为背景,主要针对在灾难现场的复杂环境中,发现人的肢体特征信息,从而根据人体的定位确定机器人救援的目标。针对人体检测,国内外学者已经做了很多较为深入的研究。但是在灾难现场这个独特的应用背景下,环境复杂,遮挡情况十分严重,大部分现有文献的方法不能检测出人体。本文采用一种基于局部肢体检测的方式,将人体分解成,人脸、上身、头肩、腿脚等部分,首先对于拆分出的人体局部特征进行搜索,最后根据每个检测器搜索的结果,进行融合,利用得到的局部特征信息,对人体存在进行分析,并标定出人体的位置。本文利用Haar特征对于采集到的图像中人脸特征以及头肩特征进行检测,提取出相应的特征区域,并与肤色检测器检测到的肤色候选区域,以及利用HOG特征检测出的头、躯干等候选区域进行结果融合,利用多种特征的特点,互相弥补,消除误检从而得到较好的检测效果,文中在针对运用每种特征检测目标的同时,运用DBSCAN算法对于局部检测结果进行融合,起到了很好的效果。最后提出了一种特征关系的概念,形成一系列规则,实验表明,运用这种特征关系进行该类多特征融合的问题,可以极大的消除局部检测器的误检,使得检测效果得到了极大的提升。