云计算平台中的图像序列高效无损压缩方法研究

被引量 : 0次 | 上传用户:something190
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
云渲染是新一代三维动画制作的关键技术。在电影制作领域,三维动画或者特效场景会通过云渲染产生大规模的图像数据,这些数据在系统内部的传输过程中会占用大量的带宽资源导致系统性能下降,并且低密度的存储会使用户的存储成本上升,因而亟待解决压缩存储问题。此类渲染图像数据需用于三维动画的后续制作合成,为了保证后期动画质量,不宜采用有损压缩。而现有的无损图像压缩算法通常仅挖掘帧内冗余并未充分考虑帧间的冗余信息,所以压缩比偏低且压缩速度慢;视频编码方案虽然压缩比高,但很难达到绝对无损且计算比较复杂。为此,本文在对基于字典技术的通用数据压缩算法LZ77分析的基础上,提出了通过减少数据局部复杂性的数据块重排策略。该方案能够针对渲染结果图像序列,在不额外增加计算时间的前提下,获得更高的压缩比。本文进一步针对渲染图像序列相邻图像帧之间相关性比较大的特点,基于预测编码模型中的差分编码方案,提出了一种适合存储的称之为LZT的图像序列无损压缩方案。另一方面,利用图像哈希能够快速查找到相似像素矩阵的特点来改善数据块重排的精度和速度,进一步提高压缩比。最后,提出了一种基于云平台的分布式无损编解码方案,以解决图像序列数据量大单机计算能力不足的问题。本文的主要工作和成果如下:(1)针对渲染图像序列压缩效率比较低的问题,文中从信息论的角度剖析了数据的分布以及字典压缩算法的特点,提出通过增加局部冗余机制的图像数据块重排算法来改善系统的压缩性能。该方法充分利用了图像序列的全局冗余信息,并且比较适合分布式编码,结果表明该算法的压缩比有很大程度提高。(2)为了在更加充分的利用图像序列的帧内与帧间冗余信息,在图像数据块重排算法的基础之上引入预测编码模型,通过差分编码的机制在编码过程中进一步减少数据的冗余信息,研究了基于字典压缩算法的图像编码格式PNG、APNG以及MNG格式,并提出了一种适合无损存储渲染图像序列的LZT编码方案。(3)为了提高数据块重排算法中的局部数据冗余度,通过引入图像哈希的机制来进一步提高效率。图像哈希能够快速的检索出相似的图像,并且可以通过哈希值来对图像块的相似程度进行度量,因而通过在基于数据块重排算法中通过图像哈希算法使得相似性较大的数据快速的聚集同样可以提高压缩性能。(4)构建了基于云计算的分布式无损编码系统,解决计算密集型任务单机处理能力有限的问题。该系统继承了云计算平台鲁棒性、可扩展性的优点,并且充分利用了数据块重排中的全局冗余信息,因而依然能够保持高压缩比,同时通过并行计算的方式能够显著的降低编解码的处理时间。同时,分布式编码系统能够利用到视频转码等类似处理二进制数据的需求中。
其他文献
无线传感器网络(WSNs)是由大量无线传感器节点组成,分布在一定区域内的各个节点之间通过无线通信链路以自组织的形式组成一个完整的网络系统,其主要功能是感知环境信息,信息经过
近年来,随着工业的发展,石油的需求量增大,导致石油开采过度,石油产量急速下降,针对这一问题油田采用了注水的增产方式,但在注水增产中导致污水含量越来越大,对环境造成严重
作者依据有关资料分析认为 ,当前假冒伪劣产品遍及全球 ,愈演愈列 ,呈逐步升级的趋势 ;文章从利润冲动、打假法制不健全 ,防伪技术难以到位和国际贸易自由化等因素着眼 ,对滋
超薄型钢结构防火涂料的耐候性是影响其防火性能的主要因素之一。研究结果表明,只有对防火涂料再进行保护才能延长防火时间。为此研制了超薄型钢结构防火涂料专用保护面漆,可
瑞吉酒店及度假村在中国的首家度假酒店,也是西藏第一家奢华酒店——拉萨瑞吉度假酒店于2010年11月15日隆重开业,酒店的建成使用,为西藏填补了没有高档次酒店的空白.在海拔高
茶多酚是茶树[Camellia sinensis(L.)O. Kuntze]中主要的次生代谢产物,其含量可达鲜叶和嫩茎干重的18%~36%,包括酚酸、黄酮醇、黄烷-3-醇(儿茶素)、黄酮、花青素和原花青素等。不同
与纯铝导体相比,铝合金导体具有更高强度,可通过成分、加工方式及热处理来调节导体的综合性能的特点。本文以6101铝合金为基础,在优化铸锭均匀化热处理制度和固溶制度的前提
采煤技术在煤矿中的应用十分重要,这关系到煤矿的开采效率能否满足煤矿的要求,使煤矿开采数量获得更多的经济效益。然而,在许多煤矿企业中,由于自身的管理和洞察问题能力不足
随着社会经济的发展、经济结构转型及新型城镇化的推进,土地需求量日益增多,而我国土地资源十分稀缺。我国土地所有权包括国家所有和集体所有两种形式。集体所有的土地必须经
当今社会,数据无处不在,从海量的数据中找出有潜在应用价值的数据规律或数据模型,用人工的方式难以实现这个目标。随着技术的不断发展,越来越多的人选择使用机器学习从海量数据中