论文部分内容阅读
随着互联网技术的发展以及智能设备的普及,人们上传至网络上的图像数据日益增多。面对数量庞大的图像数据,如何准确、高效的检索出需要的图像,是图像检索任务中的研究热点与难点。基于内容的图像检索技术依赖提取的描述特征进行检索,所以图像特征的描述能力很大程度上决定了检索的精度。近年来,深度卷积神经网络凭借着较为强大的特征提取能力,在图像检索任务中取得了一定的进展;但是,现有的深度特征的细节描述能力有所不足,检索精度还有待提升;以此同时,存在提取的高维度图像特征会导致检索速度下降的问题。基于以上问题,本文对深度卷积神经网络如何提取判别性更强的特征,以及降低用于检索的特征维度展开相关研究,主要工作及成果如下:1)对于网络提取的全连接层特征局部细节的描述不足的问题,提出了基于多区域中心的卷积特征加权聚合方法。该方法依赖深度卷积网络模型中的卷积层对图像语义区域的感知能力,利用卷积特征图的响应值差异,选取包含目标区域信息的特征图,根据选择特征图中较高的卷积响应值计算区域中心权重,最后对卷积激活响应进行加权生成图像全局描述。本文在常用的地标建筑图像数据集进行了实验对比,实验结果表明,检索精度同其他主流的卷积特征加权聚合方法有所提升,在巴黎建筑和牛津建筑数据集与次优的算法相比,平均检索精度均值分别提升了1%和5%。2)对于采用元组训练的网络模型没有充分挖掘样本中包含的排名信息的问题,提出一种基于排名加权三元组的深度二值化哈希编码特征提取方法。本方法利用了样本包含错排信息的图像三元组计算相应的元组权重,并使用改进的目标损失函数引导网络层参数的更新,对提取的二值化特征在汉明空间依旧保持相似图像之间的相似性,并将高维特征编码成紧凑的二值化编码,降低了特征维度提升检索速度。实验结果表明,本文提出方法能有效改善网络提取特征的检索性能,在CIFAR-10上测试比次优的方法精度提升了1%,单张检索平均时间消耗降低了0.25ms,而NUS-WIDE数据集上提升了2%,时间消耗下降了0.16ms。