深度学习用于图像压缩

匿名 (未验证) 提交于 2019-12-03 00:34:01

CHALLENGE ON LEARNED IMAGE COMPRESSION 挑战赛由 Google、Twitter、Amazon 等公司联合赞助,是第一个由计算机视觉领域的会议发起的图像压缩挑战赛,旨在将神经网络、深度学习等一些新的方式引入到图像压缩领域。据 CVPR 大会官方介绍,此次挑战赛分别从 PSNR 和主观评价两个方面去评估参赛团队的表现。

比赛结果:http://www.compression.cc/results/

地址:http://openaccess.thecvf.com/CVPR2018_workshops/CVPR2018_W50.py#

摘要:我们展示了一种用于低码率图像压缩的端到端可训练图像压缩框架。我们的方法基于变分自编码器,包含一个非线性编码器变换、均匀量化器、非线性解码器变换和后处理模块。压缩表征的先验概率通过使用超先验自编码器的拉普拉斯分布来建模,并与变换自编码器进行联合训练。为了去除低码率图像的压缩失真和模糊,我们提出了一种基于卷积的高效后处理模块。最终,考虑到 CLIC 挑战赛对码率的限制,我们使用一个码率控制算法来对每一个图像自适应性地分配码率。在验证集和测试集上的实验结果证明,使用感知损失训练出的该优化框架能够实现最优的 MS-SSIM 性能。结果还表明该后处理模块可以提高基于深度学习的方法和传统方法的压缩性能,在码率为 0.15 时最高 PSNR 达到 32.09。

1. 引言

构成。图像的像素值

处理表征 y,得到离散值向量

。然后使用诸如算术编码 [8] 这样的熵编码方法来无损压缩

,并生成用于传输的码流。在接收到码流之后,经过熵解码的量化后的表征使用解码器

被转换回图像空间

很明显,表征

的先验概率模型

(也称为熵模型)对于算术编码很关键。

的真实边际概率(依赖于图像分布)是未知的。因此我们通过先验分布对它进行估计。先验概率可以通过参数化模型形式化,并通过参数学习来拟合数据。给定熵模型,码率的下界由

的离散先验分布的熵决定。由恰当设计的熵编码得到的真实率仅稍微大于熵:

更加集中,则熵 R 更小,但网络的表征能力将退化,并且 D 可能会增加。因此我们以端到端的方式优化率和失真的加权和 R+λD。我们可以断定先验模型

和 R 的真实边际分布。另一方面,准确的先验模型可以使适应性算术编码在编码和解码过程中更加高效。

2. 本论文提出的图像压缩框架

图 1:本论文使用的变分自编码器架构图示。卷积参数表示为:滤波器数量 × 卷积核高度 × 卷积核宽度/上(下)采样步幅,其中 ↓ 表示下采样,↑表示上采样。AE、AD 分别表示算术编码器和算术解码器。

图 2:超先验自编码器的架构展示。

图 3:(a)残差块。(b)两个卷积层和 6 个残差块组成了后处理架构。

3. 实验结果

表 2:在 CLIC 2018 测试集上的评估结果。

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!