经常会到arxiv上下载一些文章,比如cvpr的文章,
使用中科院arxiv的镜像地址:http://xxx.itp.ac.cn
具体使用方法:把要访问 arxiv 链接中的域名从 https://arxiv.org 换成 http://xxx.itp.ac.cn
提出TMnet可以给STVSR(这个就是2020的慢动作超分提出的网络),可以插入任意数量的中间帧。
贡献有三点:
1.可以任意插值
2.这个特征融合可以欸。
1,VFI(视频帧插值)就是在相邻帧之间合成新的帧,以往是基于光流的(过时了,计算量大)。现在是Therefore, recently researchers exploited to learn spatially-adaptive convolu- tion kernels or deformable ones for VFI
注意这个视频帧插值后,得到就是一个高帧率、低分辨率视频帧(高的帧率视频更流畅)
2.这个VSR(更注重于这个重构过程)即怎么从低分辨率序列恢复了。这个帧插值更注重于,怎么在原有的仅有的帧序列信息生成更多的。
3这个STVSR(时空超分辨)感觉就像这个vsr的升级版,,就是更加强调时空关系
网络解释:
1CFI,可以控制啥时候插值了。在以往的基础上,就是啥时候。
2时间特征融合:提出了一个LFC(局部时间特征比较(LFC)模块)
3重构部分,直接掉进去 亚像素卷积完了。
因为它这个用了帧插值了的,所以它是输入连续几帧视频序列时,只要输入1,3,5,7即可中间那些都是VFI会生成的