论文部分内容阅读
近年来,随着公众安全意识的不断提高和计算机视觉技术的快速发展,目标检测和目标跟踪技术常被应用于移动机器人、自动驾驶和大范围监控系统等领域。尽管国内外研究学者在全景视觉的目标检测领域已经取得丰硕的成果,但是仍然存在准确率和实时性不能同时兼顾的问题。本文选择将目标检测算法与目标跟踪算法相结合的方式,对全景视觉下的室内场景进行人员检测,主要研究内容如下:1)针对鱼眼相机作为视觉装备时,获得的全景图像存在畸变的问题,本文采用以圆作为二维几何模型对鱼眼图像进行展开校正。针对校正后的鱼眼图像中目标“矮粗化”的问题,提出了一种基于水平方向下采样的预处理方法。经过以上两个步骤,图像中目标“矮粗化”的问题得到解决,预处理后的鱼眼图像更加适合作为目标检测和跟踪模型的输入。2)在目标检测阶段,提出了一种基于深度可分离卷积的A-YOLOv3模型。首先,为了弥补图像预处理阶段的时间开销,对YOLOv3的特征提取网络Darknet-53进行改进,将网络中的标准卷积结构替换成参数量更少的深度可分离卷积结构,通过降低模型的参数量提高目标的检测速率;其次,针对YOLOv3算法在实际检测任务中定位不准确的问题,对YOLOv3的边界框损失函数进行重构。在模型训练过程中,为了使边界框损失函数能更准确反映边界框的回归情况,将目标检测效果的衡量指标Io U与边界框角点距离相结合,设计了一种基于A-Io U的边界框损失函数。经过实验验证,使用重构的损失函数进行训练,A-YOLOv3的定位准确率进一步提升,使用深度可分离卷积结构使得检测速率提升了一半。3)在目标跟踪阶段,针对使用Deep Sort算法在遮挡前后发生目标ID变换的问题,对与目标外观信息相关联的特征提取网络进行改进。将Inception结构与Res Net网络相结合,构建多通道特征网络结构Res-Inception,并将原来的特征提取网络Cosine中的残差模块替换为新的网络结构。改进后的特征提取网络,能将不同尺度的特征图相结合,有效增强了图像中目标特征的表达能力,减小遮挡前后目标外观特征的距离偏差。最后,在基于全景视觉的人员检测任务中,将改进后的A-YOLOv3算法作为Deep Sort目标跟踪过程中的检测模块,具有较高的鲁棒性和实时性。