VCIP2021:利用解码信息进行超分辨率

本文来自VCIP2021《CNN-based Super Resolution for Video Coding Using Decoded Information》

简介


随着高分辨率视频的增多,给带宽受限的情况下视频传输带来了巨大的挑战。为了解决这个问题,可以采用重采样的编码方法,如Fig.1,视频在编码前先进行下采样,然后编码低分辨率的视频,解码端在解码后再进行上采样恢复原来的分辨率。AV1中就存在对下采样的帧进行编码在解码端再进行上采样的模式。VVC中也支持RPR

随着基于CNN的超分辨(SR)的发展,它在视频编码中有巨大潜力。论文提出了在视频编码中结合编码信息的SR。在已有的研究中SR和编码器通常都是作为相互独立的部分,而论文提出在SR中不仅使用重建信息还使用了预测信息、QP等编码信息。

模型设计


由于亮度和色度的不同特点,为亮度和色度分别设计SR模型。

Fig.2是亮度模型的结构,输入包括重建信息、预测信息和QP map,基准模型选择single-scale EDSR,由于每个卷积层仅有64个特征通道所以模型没有残差缩放层。图中RB是残差块结构,共有16个。最后一个卷积层有4个通道,然后通过shuffle层生产高分辨率重建图像。

Fig.3是色度模型的结构,和亮度模型的主要区别在于输入,为了充分利用纹理信息亮度重建信息也作为输入。其中亮度重建信息要通过步长为2的卷积层下采样到和色度同样的分辨率。模型输入还包括色度U的重建信息、色度V的重建信息以及QP map,输入中并不包含预测信息。

实验结果


数据集

使用DIV2K数据集训练模型,图像转换为YUV420格式,使用VTM11.0在RPR配置下编码,QP={22,27,32,37,42},训练图像在编码前先进行2倍下采样,然后用解码后的低分辨率图像及对应的原始分辨率图像训练。

实验配置

使用PyTorch框架训练模型,采用Tesla V-100 GPU训练,mini-batch size设置为16,使用Adam优化器学习率为le-4,每200轮按0.5的衰减因子缩小学习率。

实验结果

编码器采用All Intra配置,QP={22,27,32,37,42},结果如表1所示,Fig.4是各序列的RD曲线。增益主要来自低码率部分,这表明该方法对于低带宽场景效果更好。

感兴趣的请关注微信公众号Video Coding

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值