论文部分内容阅读
近年来,无人系统已经成为人们生活中的一部分,尤其是在智能交通领域,无人汽车和无人飞机两类无人系统已逐步成为交通参与者和交通监管者。然而,交通场景复杂多变,给以视觉为感知手段的无人系统带来了巨大的挑战。因此,本文面向交通场景,基于对多目标跟踪方法的深入研究,提出了以目标检测为基础的交通场景多目标跟踪方法,实现了以无人汽车与无人飞机视角为主的多目标跟踪方法,对提升无人系统在面对交通场景时的多目标跟踪能力具有实际意义。具体的研究内容如下。(一)面向无人汽车具体的研究内容与创新如下:1、针对交通目标的尺度变化大,实际运动较为复杂,单独采用一个模型难以描述目标的运动形态的问题,故提出了一种基于改进的YOLOv3与交互式多模型的多目标跟踪算法。该算法首先采用改进的YOLOv3模型对目标进行多尺度检测,目标检测的结果作为后续跟踪的输入,并进一步采用交互式多模型来计算某一时刻目标的运动状态信息,然后根据组合优化算法进行目标匹配,最后为每个预测的目标框找到匹配的物体检测框。实验结果表明,该多目标跟踪算法在MOT16数据集上的MOTP指标比离线方法高3%。2、针对采用基于锚点的目标检测方法实现的跟踪算法,由于受锚点机制的影响使得检测器难以估计准确的边界,从而导致多目标跟踪性能差的问题,为此提出了一种无锚点3D目标检测的多目标跟踪算法。该算法采用了无锚点机制,在检测框合并时不受非最大抑制的影响,并且将检测模型应用于对图像和先前帧的检测,定位目标并预测它们与前一帧的关联性。实验证明,该多目标跟踪方法在3D多目标跟踪上是有效的。3、针对单纯的使用RGB图像在应对目标遮挡以及场景中目标频繁更换时,无法对多目标进行持续跟踪的问题,提出了一种基于多模态融合与图卷积网络的多目标检测跟踪算法。该算法采用改进的稀疏数据混合增强方法以融合RGB图像与点云数据,并采用多模3D目标检测方法获取目标区域,之后采用图卷积网络对多个目标进行跟踪。实验结果表明,该多目标跟踪方法取得了与目前最先进的多目标跟踪方法相当的MOTA和MOTP的效果,并且在MT和IDs两个指标上也有较好的表现。(二)面向无人飞机具体的研究内容与创新如下:针对交通场景中车辆的数量未知且随着时间的变化而变化的问题以及无人机应用下的低功耗需求,提出了一种基于泊松多伯努利混合滤波器的轻量级多目标跟踪算法。该算法首先采用了一种改进的轻量级多目标检测算法;其次,基于泊松多伯努利混合滤波器对多目标进行跟踪。实验结果表明,该多目标跟踪算法在Vis Drone数据集上不仅能有效抑制目标反复出现导致的ID经常变换问题,同时也获得了很好的多目标跟踪准确率以及多目标跟踪精度,并且该算法仅有6M的参数开销,在可移植性以及低功耗方面具有优势。本文主要面向无人汽车和无人飞机两类无人系统,并针对不同系统视角下的交通场景多目标提出了相应的跟踪方法。实验表明,论文提出的算法在无人汽车视角与无人飞机视角下具备对多个交通目标进行跟踪的能力,能够为面向无人系统的交通场景多目标跟踪技术提供理论与技术支撑。