ACMMM2021 视频质量增强、反压缩任务:“使用递归融合和可变时空卷积去除视频压缩残影” 工作简述及导读

4 篇文章 0 订阅
1 篇文章 0 订阅

工作名:Recursive Fusion and Deformable Spatiotemporal Attention for Video Compression

文章标题:Recursive Fusion and Deformable Spatiotemporal Attention for Video Compression Artifact Reduction

目前已被收录至ACMMM2021

全文:

Recursive Fusion and Deformable Spatiotemporal Attention for Video Compression Artifact Reduction​

官方实现代码:

https://github.com/zhaominyiz/RFDA-PyTorch

摘要:

目前许多的方法已经被提出将低质量视频修复成高质量视频。它们中的一些(如MFQE, STDF)从临近帧中挖掘时空信息。但是这些方法通常会受到这个有限的时空窗口影响,从而使得不能从窗口外的帧中获取有用的细节。为了促进视频压缩残影去除任务,我们提出了递归融合机制去同时利用临近帧和前置帧来更好地进行时空信息补偿。除此之外,我们认为有些多残影的区域(如运动中的物体的边界)更应该得到注意。因此我们提出了一个可变时空卷积模块来使模型更focus on这些区域。充分的实验证明我们的方法在MFQE 2.0数据集上取得了至今为止最好的效果。

介绍(略)

相关工作(略)

方法:

STFF模块:第一个STDF做初步融合,随后使用RF模块修正当前特征的结果。

递归体现在:

每一次使用STDF的融合结果 h_t和上一步RF模块输出的hidden state  \hat{h}_{t-1}生成 \hat{h}_t

QE模块:在原先的L个卷积中堆L个DSTA模块。DSTA模块可见:

其中一开始是一个特征减少模块,包括一个降channel数的和下采样的。随后利用红框部分做可变性注意力。最后利用通道注意力(此时时间信息在经历过RF后被合入了channel轴)进行时空依赖挖掘。

实验:我们在MFQE2.0上开展实验。下面仅展示总体提升。

更小的计算量和参数,更好的效果。

最后附上一段可视化视频demo(csdn尚未上传,可见知乎或者github首页):

https://zhuanlan.zhihu.com/p/396552242

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值