基于RNN的可变速率图像压缩

概要

​ 该文提出了一个可变速率图像压缩的通用框架和一种基于卷积和反卷积LSTM递归网络的新架构。(不需要针对每个速率单独进行训练)

1. Variable Rate Compression Architecture
  • Encoder: function E. 以一个图像补丁作为输入,并生成一个编码后的vector(encoded representation)
  • Binaryization: function B. 由一个二值化函数B来处理编码后的vector
  • Decoder: fuction D. 它接受由B产生的二进制表示,并生成一个重构的图像

数学表达:
x ′ = D ( B ( E ( x ) ) ) (1) x^{'}=D(B(E(x))) \tag{1} x=D(B(E(x)))(1)

2.1 IMAGE COMPRESSION FRAMEWORK

​ 该论文框架是为图像压缩进行调整的,并支持可变的压缩率,而不需要再训练或存储同一图像的多个编码。

​ 为了使连续传输增量信息成为可能,设计应该考虑到图像解码是渐进式的(对质量要求高时,多传几次信息)。考虑到这个设计目标,我们可以考虑建立在残差之上的架构,目的是在解码器获得额外信息时最小化重建中的残差。
F t ( r t − 1 ) = D t ( B ( E t ( r t − 1 ) ) ) (2) F_t(r_{t-1})=D_t(B(E_t(r_{t-1}))) \tag{2} Ft(rt1)=Dt(B(Et(rt1)))(2)
r t r_t rt的确定方法:

r 0 r_0 r0设置为等于原始输入补丁,然后 r t r_t rt对于 t > 0 t>0 t>0表示t阶段后的残差。对于 r t ( t > 0 ) r_t(t>0) rt(t>0)的确定,取决于架构的设计:

  • non-LSTM architectures:

    F t F_t Ft没有记忆,所以我们只期望它能预残差部分。在这种情况下,通过对所有残差求和来恢复完全重建,每个阶段由于预测与之前残差的差异而受到惩罚.
    r t = F t ( r t − 1 ) − r t − 1 (3) r_t=F_t(r_{t-1})-r_{t-1}\tag{3} rt=Ft(rt1)rt1(3)

  • LSTM-based architectures:

    对于RNN结构来说,结构是有记忆的。所以我们期望他们在每个阶段预测原始图像。据此,我们计算了相对于原始图像的残差。
    r t = F t ( r t − 1 ) − r 0 (4) r_t=F_t(r_{t-1})-r_{0}\tag{4} rt=Ft(rt1)r0(4)

​ 该方法是不需要对所有残差求和的。

2.2 BINARY REPRESENTATION

该文的二值化结构有三个好处:

  • bit vectors对于图像传输来说是可序列化/反序列化的
  • 网络压缩率的控制仅仅是通过对bit vectors的约束来实现的
  • 相对与传统方案来说,此二值化可以提取到更有效的信息

binarization包括两部分:

  • 第一部分包括在生成所需要的bit数目,值域在[−1,1]

    实现方式:采用fully-connected layer 和 tanh 激活函数

  • 第二部分涉及到将这个连续值作为输入,并在集合{−1,1}中产生每个输入对应的离散输出。
    b ( x ) = x + ϵ ∈ { − 1 , 1 } (5) b(x)=x+\epsilon \in\{-1,1\} \tag{5} \\ b(x)=x+ϵ{1,1}(5)

    ϵ = { 1 − x with probability 1 + x 2 − x − 1 with probability 1 − x 2 \epsilon = \begin{cases} 1-x& \text{with probability}\frac{1+x}{2}\\ -x-1& \text{with probability} \frac{1-x}{2} \end{cases} ϵ={1xx1with probability21+xwith probability21x

    ϵ \epsilon ϵ代表量化噪声。

总的来说,Binarization function:
B ( x ) = b ( t a n h ( W b i n x + b b i n ) ) (6) B(x)=b(tanh(W^{bin}x+b^{bin}))\tag{6} B(x)=b(tanh(Wbinx+bbin))(6)
为了对一个特定的输入有一个固定的表示,一旦网络被训练,只考虑b(x)最可能的结果,b可以被 b i n f b^{inf} binf代替,定义为:
b i n f ( x ) = { − 1 if x<0 + 1 otherwise (7) b^{inf}(x)= \begin{cases} -1& \text{if\ x<0}\\ +1& \text{otherwise} \tag{7} \end{cases} binf(x)={1+1if x<0otherwise(7)
压缩码率是由bit数量决定的。根据上面描述,压缩产生后的码率与 W b i n W^{bin} Wbin和stage(residual autoencoder数量)的数量有关。

3. architecture
3.1 fully-connected residual autoencoder

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Z24Lu0TZ-1646970890503)(C:\Users\Liujiawang\AppData\Roaming\Typora\typora-user-images\image-20220310143845645.png)]

全连接的残差自动编码器。我们描述了一个双迭代架构,第一次迭代的目标是对原始输入补丁进行编码,第二次迭代的目标是对第一级重构中的残差进行编码。重建图像为各个residual相加。

3.2 fully-connected LSTM residual encoder

在这个体系结构中,我们探索了对编码器和解码器都使用LSTM模型。特别是,E和D都是由堆叠的LSTM层组成的。

我们使用上标来表示layer索引,并使用下标来表示时间步长。比如 h t l ∈ R n h^l_t\in R^n htlRn代表时间t 的auto-encoder上的第 l l l层hidden LSTM Layer。我们定义 T n l : R m — — > R n T^l_n: R^m——>R^n Tnl:Rm>Rn是一个映射变换: T n l ( x ) = W l x + b l T^l_n(x)=W^lx+b^l Tnl(x)=Wlx+bl ⨀ \bigodot 代表element-wise, h t 0 h^0_t ht0代表在时间 t t t上第一个LSTM Layer。

LSTM结构公式表示:
( i f o g ) = ( s i g m s i g m s i g m t a n h ) T 4 n l ( h t l − 1 h t − 1 l ) (8) \left( \begin{matrix} i \\ f \\ o\\ g \end{matrix} \right)= \left( \begin{matrix} sigm \\ sigm \\ sigm\\ tanh\\ \end{matrix} \right)T^l_{4n} \left( \begin{matrix} h^{l-1}_t \\ h^l_{t-1}\\ \end{matrix} \right) \tag{8} ifog=sigmsigmsigmtanhT4nl(htl1ht1l)(8)

c t l = f ⨀ c t − 1 l + i ⨀ g (9) c^l_t=f\bigodot c^l_{t-1}+i\bigodot g \tag{9}\\ ctl=fct1l+ig(9)

h t l = o ⨀ t a n h ( c t l ) (10) h^l_t=o\bigodot tanh(c^l_t) \tag{10} htl=otanh(ctl)(10)

sigm代表sigmoid function。

对于编码器,我们使用一个全连接的层,然后是两个堆叠的LSTM层。解码器具有相反的结构:两个堆叠的LSTM层,然后是一个完全连接的层,具有tanh非线性,可以预测RGB值。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qw33LyxH-1646970890504)(C:\Users\Liujiawang\AppData\Roaming\Typora\typora-user-images\image-20220310150946137.png)]

3.3 forward convolution/deconvolution residual encoder

第3.1节提出了一种全连接的残余自动编码器。我们分别用卷积和反卷积替换encoder和decoder的全连接层来扩展这种结构。解码器的最后一层由1×1卷积组成,三个滤波器将解码后的表示转换为RGB值.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-unJhQQUr-1646970890504)(C:\Users\Liujiawang\AppData\Roaming\Typora\typora-user-images\image-20220310152838611.png)]

3.4 Convolutional/Deconvolutional LSTM Compression

该体系结构将卷积和反卷积运算符与LSTM相结合。我们用卷积加偏置代替方程(8)中的变换 T 4 n l T^l_{4n} T4nl来定义卷积LSTM结构。具体公式表达为:
T 4 n l ( h t l − 1 , h t − 1 l ) = W 1 l ⨂ h t l − 1 + W 2 l ⨂ h t − 1 l + b l (11) T^l_{4n}(h^{l-1}_t,h^l_{t-1})=W^l_1\bigotimes h^{l-1}_t+W^l_2\bigotimes h^l_{t-1}+b^l \tag{11} T4nl(htl1,ht1l)=W1lhtl1+W2lht1l+bl(11)

3.5 dynamic bit assignment

对于这里提出的非卷积方法,通过允许编码器的不同数量的迭代,这样就可以为每个补丁分配不同的比特数。

4. 结果

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-L7I3D9CN-1646970890505)(C:\Users\Liujiawang\AppData\Roaming\Typora\typora-user-images\image-20220310173905151.png)]

总结
  • 该文的网络只需要训练一次(而不是每张图像),而不管输入图像的尺寸和期望的压缩率
  • 该文的网络是渐进的,这意味着发送的比特越多,图像重建就越准确
  • 对于给定的比特数,所提出的架构至少与一个标准的专门训练的自动编码器一样有效(在32×32的大规模基准测试中,我们基于LSTM的方法提供了比JPEG、JPEG2000和WebP更好的视觉质量,存储大小减少了10%或更多)

Reference:Variable rate image compression with recurrent neural networks

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值