论文部分内容阅读
随着现代传感器、多媒体、计算机通信及网络技术在社会的各个领域的飞速发展和广泛应用,人们经常需要存储、传输、分析和处理各种纷繁复杂的、大规模的数据,例如:人脸图像数据、视频监控数据、生物信息数据等。海量的数据在为我们提供了充足的信息的同时,也对计算机的数据存储、传输、计算和处理能力提出了较高的要求。如何从被强噪声或奇异点污染,甚至部分缺失的观察矩阵或张量数据中恢复原始信息,即张量补全问题,已经成为计算机视觉、图像处理、视频监控、鲁棒性子空间恢复、数据挖掘及机器学习等众多研究领域所面临的一个核心问题。论文分析了国内外各种已有张量补全算法的优缺点,结合非凸优化理论,提出两种基于最小化lp-PARAFAC的张量补全算法。1)基于SBIR(Smooth block iteratively reweighted)的低秩张量补全优化算法。这个方法首先推导出一种增广型的lp范数。更确切地说,通过在不光滑的区域周围构建一个局部二次近似函数来逼近原始的lp代价函数,而在这个区域之外,代价函数保持原始的形式从而对奇异值进行限制。然后采用分块更新准则和最小化二次重加权替代函数来对原问题进行求解。该方法可以被证明具有能够收敛到驻点,复杂度低,对奇异点稳健的优势。2)基于ALM(Augmented Lagrangian multiplier)的低秩张量补全优化算法。该方法首先将基于lp范数的代价函数改写成符合增广拉格朗日乘子法的形式,然后将改写后的代价函数分成三个子问题并采用交替迭代的方式进行求解。该方法不但能线性收敛到最优点而且能得到鲁棒的数据恢复效果。论文将以上两种算法在两种数据集上采用通用的评价标准进行对比实验。与现有的方法相比,基于SBIR的低秩张量补全优化算法在对数据,尤其是对合成数据进行恢复时,能取得更优异的性能。同时,提出的基于ALM的低秩张量补全优化算法能取得更快的收敛速度、更鲁棒的数据恢复效果。