百度顶会论文复现营作业
https://aistudio.baidu.com/aistudio/education/group/info/1340
下面是对论文的阅读总结 : Few-shot Video-to-Video Synthesis
这篇论文是从vid2vid 的工作改进来的, 最重要的improvement是允许用户在test time 的时候提供example photo来生成目标视频。而以前的方法是要对不同的example 分别training, 而且要求不少的pair photos作为训练。
现在的方法只需要提供一张example photo (至少), 而且要求semantic state 要对应某个source video frame, 也就是说,input是source video, 和一些example,source 匹对的photo/frames.
模型描述
大致思路是需要一个H网络 (Network weight generation module), 这个网络是根据 input example/source pairs 生成后面用来改图的ConvLayer参数. 这样就是提供了根据example 来修改source frame。
图(a)就是之前vid2vid模型, 是通过之前对example domain 预先训练得到的。 而这个论文的最重要改动就是把这个