论文部分内容阅读
随着互联网技术的快速发展和各种电子设备的日益普及,加之社交媒体的迅速蹿红,使得图片数据生成和传播更加便捷;据统计,互联网大数据中近80%为图片数据,进而导致了严重的视觉信息过载问题。图片推荐技术作为传统图像检索技术的补充手段,能够有效的缓解这一问题,并在各种多媒体应用中发挥着越来越重要的作用。用户与图片之间的交互数据(通常被表示为UI矩阵)是构建图片推荐系统的重要基础资源;然而,相对于用户和图片数量而言,用户与图片的交互信息显得极为稀疏,这也是图片推荐技术所面临的主要挑战之一。目前一种主流的解决思路是,利用用户和图片的边信息来辅助推荐任务,从而缓解数据稀疏问题并提升推荐性能。但是,在大多数图片搜索引擎中,只有图片的视觉信息可用,很难获取用户的个人信息。因此,对于图片推荐任务来说,一个棘手的问题是如何使用单一的图片视觉边信息同时改善用户和图片的隐表示学习。本文立足于解决如上问题,所做工作如下:首先,提出一种三体协同过滤框架,该框架使用两个分别与用户和图片相关的平滑项对经典的贝叶斯个性化排序模型进行扩展,使其在对用户-图片偏好建模时,同时兼顾了用户-用户、图片-图片相似性。该框架具有较高灵活度和扩展性,可以方便地将各类用户和项目边信息集成到相似度的计算中,以便改善用户和图片的隐表示学习。此外,基于用户与图片的交互历史,提出一种边信息传递策略,以期利用单一的图片视觉信息同时改善用户和图片的隐表示学习。具体来说,首先利用图像的视觉和用户的点击日志计算图片的混合相似度矩阵;继而运用谱聚类算法对图片进行自适应分组;基于图像簇张成的低维子空间获得用户的“类词包(BOW-like)”表示,并计算用户的子空间相似性矩阵;其中,图片混合相似度矩阵和用户子空间相似性矩阵分别用于三体协同过滤框架中的图片平滑和用户平滑。通过该方式,实现了仅利用单一边信息同时改善用户和图片的隐表示学习。最后,通过与本文算法的退化算法以及现有经典算法作对比,证明了所提出方案确实可利用视觉信息同时改善用户和图片的隐表示从而提升图片推荐的效果,且其性能远优于已有同类方法。