论文部分内容阅读
发型是人物形象的重要组成部分。在当今新兴的虚拟现实与增强现实的应用中,实现与真实世界输入相似的三维发型建模是一项艰巨的任务。由于发型的多样性及其错综复杂的几何结构,创建出完整的、逼真的虚拟三维发型模型是计算机图形学研究中的一项挑战。传统的基于手工交互的发型建模方法需要专业的技能和繁重的人力劳动,因而无法适用于非专业用户。基于图像的发型建模研究由于输入信息易于获取,在近年来受到研究者的广泛关注。早期的方法依赖于在受控环境中搭建复杂的采集设备从而获得可信的重建结果,使得这类方法难以普及使用于实际应用。最先进的基于图像的发型建模技术以人工合成建模数据为数据库,为发型建模提供先验几何信息,以此弥补图像输入在维度上的信息不足,从而降低对输入图像质量和数量的要求,使得基于图像的数据驱动发型建模方法更加的用户友好,更加适用于消费级别的应用开发。然而这类数据驱动的方法通常需要大量存储空间用于储存数量不断增加的数据库模型,以适应现实世界中不断变换的各式发型,同时需要大量运行时间用于最优匹配候选搜索和进一步的模型优化后处理。本文提出了三种实现三维发型建模的数据驱动方法,通过充分利用有限的数据库发型资源,高效地创建出与真实世界输入相似的、完整的、高质量的、发丝级别的三维发型模型,并且适应多种复杂发型建模的要求。这三种方法概括如下:·提出了一种基于四个视角图像输入的发型建模新方法。以前、后、左、右四个视角的发型图像作为输入,首先使用数据库中的三维模型估计发型的轮廓模型,然后在轮廓模型表面以基于块的方法合成发型纹理图案,由发型纹理计算发丝生长方向,从而在轮廓模型体素中构建三维方向场。最后,沿着方向场从头皮生长发丝,以实现三维发型建模,其结果与四视角输入图像中的发型对应相似。该方法不要求四视角图像输入来自同一发型,能够通过选择来自不同发型的四视角图像创建出有趣的三维发型模型。·提出了一种基于单个深度彩色相机的全自动的数据驱动三维发型几何建模方法。该方法所获得的完整的、发丝级别的发型建模结果能够与输入序列图像中的发型特征相吻合。该方法充分利用深度序列中所包含的几何线索和三维发型数据库中的匹配样例,实现高度仿真的发型结构合成。方法的核心是基于局部相似性的样例模型匹配搜索和三维发型结构合成算法,该算法能够保证发型几何结构、发丝走向与连接的合理性。·提出一个生成对抗网络架构,以从单幅图像中恢复三维发型结构。网络目标为建立从二维发型特征映射到三维发型结构的参数空间转换。该方法使用三维体积场来表示三维发型结构,体积场中包含发型的空间占有分布和发丝方向走势信息。以单幅图像作为输入,首先将其与算法预定义的同一半身像模型对齐,并提取发型区域的二维方向场、置信度图和人体半身像深度图作为生成对抗网络的输入。然后使用生成网络计算获得发型结构的三维体积场来引导最终的发型合成。其建模结果不仅与输入图像中的发型相似,在其他视角下也具有许多生动的细节。