论文阅读 | Video Frame Interpolation via Adaptive Separable Convolution

前言:ICCV2017的一篇基于核做视频插帧的文章,adaConv改进版
论文地址:【here】

Video Frame Interpolation via Adaptive Separable Convolution

引言

基于核的方法比基于光流的方法能更好的应对遮挡、模糊、亮度变化等情况,但是基于核的方法是每个像素点得到一个核,核的大小又必须很大因为要处理大的位移变化,因此所需要的内存空间会变得非常大
具体如文章所述

. The convolution kernels jointly account for the two separate steps of motion estimation and re-sampling involved in traditional frame interpolation methods. In order to handle large motion, large kernels are required. For example, Niklaus et al. employ a neural network to output two 41×41 kernels for each output pixel. To generate the kernels for all pixels in a 1080p
video frame, the output kernels alone will require 26 GB of memory. The memory demand increases quadratically with the kernel size and thus limits the maximal motion to be handled.

网络架构

本文的主要思想,将一个2维的核拆成2个一维的核,最后可由两个1维核的乘积得到2维核
即对于前后两帧,则分别需要得到一个2维核,拆开则需要4个一维核
在这里插入图片描述
具体文章部分

Our method addresses this problem by estimating a pair of 1D kernels that approximate a 2D kernel. That is, we estimate hk1,v, k1,hi and hk2,v, k2,hi to approximate K1 as k1,v ∗ k1,h and K2 as k2,v ∗ k2,h. Thus, our method reduces the number of kernel parameters from n2 to 2n for each kernel. This enables the synthesis of a high-resolution video frame in one pass and the incorporation of perceptual loss to further improve the visual quality of the interpolation results, as detailed in the following subsections.

实验部分

定量实验
在这里插入图片描述
在这里插入图片描述
定性实验
在这里插入图片描述
同时用了L1损失和感知损失的不同
在这里插入图片描述

总结

这篇文章主要提供了一个两个一维核构成一个二维核的方式,降低存储量,更多的是原文adaConv的延伸,改动不大

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值