论文部分内容阅读
视频车辆的跟踪与分类是自动驾驶领域非常关键的环节。目前对于视频车辆跟踪与分类的研究已有许多成果,但大多基于固定摄像头和固定场景,并不适用于自动驾驶、智能辅助等场景。针对移动背景视频序列中,对车辆进行跟踪与分类方法的实时性不高、存在场景干扰等问题,以压缩跟踪算法为基本框架,设计了一种视频车辆的跟踪与分类方法。本文的主要工作和成果如下:(1)运动目标区域检测的研究。针对移动背景下运动区域的检测,提出一种帧差法与背景建模法结合的检测方法,可以有效提高检测的精确度。(2)视频序列车辆提取研究。针对现有车辆检测算法实时性与准确率相制衡的问题,提出基于视频序列的Attention-YOLOv4车辆检测模型,引入注意力机制,进一步提高了模型的检测速度与精度。(3)车辆类型细粒度识别研究。提出一种基于知识蒸馏的轻量级残差网络(Lightweight Res Net,LRN),并使用教师-学生体系训练LRN模型。结果表明,LRN拥有与教师网络相近的分类能力,并有效减少了模型的计算复杂度。(4)基于压缩感知的车辆跟踪研究。针对视频车辆跟踪的实时性以及对光照、遮挡等因素的敏感性要求,以压缩跟踪为基本框架,提出了一种基于改进测量矩阵的车辆跟踪算法,该算法具有良好的实时性,且对遮挡、光照变化等因素具有一定的鲁棒性。本文设计了一种移动背景下的车辆跟踪与分类方法,在实时性、准确度等方面都得到了明显的提升。在后续研究中,将对非机动车类型的细粒度识别,以及夜间行驶车辆的跟踪方法进行研究。