论文部分内容阅读
随着网络流媒体的高速发展,越来越多的不法分子在互联网上散布包含暴力恐怖内容的敏感视频。为有效阻断此类视频的传播途径,针对此类敏感视频的内容识别研究已广泛开展,但受限于识别性能和处理效率,相关识别系统尚未被视频门户网站大范围应用。为提高识别性能,本文在研究过程中收集并标注了大量敏感视频数据,同时充分借鉴事件视频分类的研究成果,并结合敏感视频自身特点,分别提出了基于语义概念的敏感视频识别算法和基于深度学习的敏感视频识别算法。为提高处理效率,本文设计并实现了基于Hadoop的分布式敏感视频识别系统,使得整体系统的运算能力和存储能力都得了巨大的提升。具体研究贡献如下:本文的第一个贡献点是收集并人工标注了敏感视频领域第一个大规模视频数据集。数据集共整理视频18,620段,其中包括4,429段敏感视频和14,191段非敏感视频。该数据对于本文的研究和今后相关领域的研究都具有重要价值。本文的第二个贡献点是提出了一种基于语义概念的敏感视频识别算法,并在该算法的实现中创新性地引入了局部得分修正方法,用以弥补图像层面误识别对于视频判别的干扰。实验结果表明,该算法在图像层面,对敏感语义概念识别的mAP值达到84.6%;而在视频层面,对敏感视频识别的mAP值达到90.1%,其中,采用局部得分修正的方法获得了 1.2%的识别性能加成。本文的第三个贡献点是提出了一种基于深度学习的敏感视频识别算法。本文充分利用了 CNN在图像特征表达方面的优势,创造性地将场景特征引入到视频分类问题中,实现了一种包含语义特征,场景特征和时序判别的复合型敏感视频识别算法。实验结果表明,该算法对敏感视频识别的mAP值高达98.0%,其中引入场景特征和时序判别使得mAP值提高了 1.5%。另外,在CCV与USAA等视频分类数据集上,该算法也表现出优异的泛化性能。本文的第四个贡献点是设计并实现了基于Hadoop的分布式敏感视频识别系统。该系统结合了 Hadoop分布式框架的优势与视频识别任务的特点,解决了大数据环境下的视频分布式存储与分布式识别问题。实验结果显示,伴随着集群节点数目的增加,整个系统的存储规模和计算能力都显著增强。