论文部分内容阅读
随着新媒体逐渐呈现出技术赋能的发展趋势,视频博客(Video Blog,简称“Vlog”)以一种活跃增长的方式呈现在大众面前,并且以精细优质的内容产出成为一种广受欢迎的分享形式。在此环境下,Vlog视频拍摄与编辑软件不断迭代更新,软件功能同质化严重、缺乏创新性及智能性等痛点也随之而来。因此,本文旨在为Vlog创作提供更优、更合理的理论支持与解决方案,为视频创作者提供更智能、更便捷的操作指南与工具平台,进行了基于乐景融合的Vlog智能生成系统设计。本文研究围绕Vlog智能生成,做了以下工作:(1)首先提出了基于乐景融合的Vlog智能生成系统设计模型——MES模型,模型包含音乐、情感、场景三大关键要素,三者之间相互联系。该模型支持用户为导向、数据为资源、技术为手段的Vlog智能生成系统设计的研究方法,为全文工作奠定了理论基础;(2)构建了包含6大Vlog热门场景的场景库与Vlog音乐库,以MES模型为研究理论基础进行了“音乐-情感-场景”之间的映射关系实验,实验结果表明:纯音乐情感受场景情感影响,场景与音乐正确结合能够很好地提升视频总体的视听体验,并且音乐本身的信息与表达的情绪也会影响用户对于场景画面的选择;(3)提出了基于音乐节奏识别的音乐分析与视频合成方法,其具有自动标记音乐节奏点的特点。通过用户主观评价实验,将该方法与其他文章提出的方法进行比较,验证了本方法的有效性;(4)对上述工作进行整合,设计开发了网页版的AutoVlog智能生成系统,并通过用户体验实验验证了系统具有良好的有效性、效率性以及可用性。该系统为用户提供了个性化、智能化、一体化的创作体验,解决了现有视频剪辑工具同质化、非智能化、操作复杂化等问题。本文工作为“音乐-情感-场景”关系研究提供了有益的参考,也为视频生成产业贡献了一项可借鉴的应用案例。