END-TO-END、SCALE HYPERPRIOR、Checkerboard梳理总结

8.9-8.15学习汇报

阅读《END-TO-END OPTIMIZED IMAGE COMPRESSION》、《VARIATIONAL IMAGE COMPRESSION WITH A SCALE HYPERPRIOR》、《Checkerboard Context Model for Efficient Learned Image Compression》

传统的图像或视频压缩方法通常分为多个步骤,包括变换、量化、熵编码等。每个步骤都有其特定的算法和模块,并且这些步骤通常是独立的。
image-20230913094557843
基于深度学习的编码框架会把图中的某些部分用神经网络来替换。最常见的就是把线性变换用一个参数化的、非线性的自编码器来替换。
《END-TO-END OPTIMIZED IMAGE COMPRESSION》端到端压缩,通过一个统一的神经网络模型来实现整个压缩过程。网络模型通常由编码器和解码器组成。

如何训练的?

如何用得到的模型做编解码?
image-20230913094216887

请添加图片描述

端到端压缩的一个潜在缺点是熵模型的简单性。例如均匀分布或固定概率分布。这种简化的熵模型往往无法充分捕捉不同位置的数据统计特征,导致压缩效率的降低。而我们知道图像是有区域性的,不同纹理、区域对应的概率分布差异较大。使用同样的熵模型很难消除空间冗余。

《VARIATIONAL IMAGE COMPRESSION WITH A SCALE HYPERPRIOR》超先验,它通过在熵模型之前引入额外的神经网络模型来提高熵模型的表达能力。

请添加图片描述
通过存进一步压缩信息z(hyperprior)来对潜在表示每一个点进行均值为0,方差为σ的高斯建模。就能估计更灵活的概率分布,进一步消除冗余信息减少码流。
之前是对整体潜在特征进行建模,即一个熵模型在推理阶段应用在所有的特征值熵,而超先验架构为每个特征点都进行了熵模型建模。

后续LIC的两个思路:1.提出更好的熵模型2.改进出更强的变换网络

上下文模型

上下文模型,用先编码的符号来预测后编码的符号分布。但存在串行解码效率问题。

img

《Checkerboard Context Model for Efficient Learned Image Compression》棋盘上下文模型。
请添加图片描述

  1. 随机掩码模型的玩具实验,实验结果表明:参考的特征数量与码率的节省效果不是强相关的。但使用距离解码特征更近的特征将节省更多的码率。
    image-20230913101302384

  2. 于是就设计了棋盘格模型,经随机掩码模型测试,节省的码率比之前的自回归要好,但是有新的问题,即双向引用。

  3. 因此就把这个上下文模型用在一半特征,另一半只用超先验。

请添加图片描述
请添加图片描述

  • 7
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值