论文阅读 | Video Frame Interpolation via Adaptive Convolution

前言:CVPR2017基于kernel做插帧的典型方法
代码:【here】

Video Frame Interpolation via Adaptive Convolution

引言

目前的插帧算法都是两阶段的,即先进行运动估计,再进行像素级合成
这种方法容易受到 遮挡亮度突然变化模糊的影响

本文提出了一种基于核的方法,直接用一个全卷机网络学习每个像素上的内核,实现的运动估计和像素完成
贡献:
更鲁棒,不用考虑模糊亮度变化的约束
端到端训练,不用考虑中间的光流真值
做了实验验证,的确在模糊、亮度变化等场景更有优势

方法

首先,作者分析了基于流和基于核的方法局别
基于流的方法如下图图a所示,先估计出运动,再由运动信息插值得到像素值,这种方法受到模糊遮挡的损害
而基于核的方法直接学习像素区域的值在这里插入图片描述
在这里插入图片描述
如上图,通过对P1P2为中心的像素块进行拼接,然后卷积,学习到一个比较大的卷积核,这个卷积核卷积这块像素区域即得到新的像素点的值

网路的参数如下,其中,输入的两张图在通道拼接,卷积的两张图在宽拼接,因此卷积核也在宽拼接
在这里插入图片描述
由于生成的核的权重是加起来为0,因此得过一个 spatial softmax

实验

对比实验
在这里插入图片描述
模糊场景效果验证
在这里插入图片描述
亮度突变效果验证
在这里插入图片描述
遮挡效果验证(光流方法出现孔洞)
在这里插入图片描述

作者最后还分析了一些基于核方法目前的问题,即只能插一帧,不能插任意时刻的帧

总结

早些年的视频插帧文章,基于卷积网络得到卷积核的思想来学习两张图像之间区域间的插帧值还是很值得学习的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值