论文部分内容阅读
随着智能交通系统(ITS)的飞速发展,无人驾驶车辆的性能日趋精进。场景理解技术是无人驾驶车辆的重要技术之一,而语义分割是场景理解技术的第一步也是关键一步。受复杂交通环境的影响,语义分割的结果易出现低照度边缘处理不佳、分割目标细节较模糊的问题;在交通图像采集阶段,手工标注数据集也是极其困难的;针对这些问题本论文基于深度卷积神经网络对语义分割算法进行了以下研究。针对图像语义分割过程中,对于低照度边缘处理不佳的问题,本文首先借助于深度残差网络,学习了图像中更多的高阶语义特征;其次,采用区域候选网络加速生成了待分割目标候选区域块;然后,设计融合算法对候选区域块进行融合,并剔除重复的候选区域;最后,在融合形成的待分割目标区域块中进行低照度边缘搜索,并使用失真代价较小的局部增强算法,强化了分割目标低照度边缘特征。针对图像中分割目标细节较模糊的问题,本文研究了基于全卷积网络的语义分割算法。在全卷积神经网络的基础上级联一个尺度金字塔空间,形成一个多尺度角点检测器;尺度金字塔空间从不同尺度特征图中检测待分割目标的关键点,学习图像中更深层次的上下文特征信息,提高了语义分割的精度。针对手工标注数据集难度较大的问题,设计了一种弱监督语义信息检测器,通过神经网络训练阶段学习目标边框注释特征信息和图像级标签特征信息,经多次迭代之后,可以在弱监督语义环境下学习更多地语义标签信息,实现了弱监督语义分割。通过采用相关数据集进行实验验证,结果表明本文所提出的几种算法能够有效地解决语义分割过程中的相关问题,使得交通场景语义理解的准确性得到提高。