【飞桨】、【PaddlePaddle】、【论文复现】
Few Shot Vid2Vid 论文心得
一直以来,我对怎么实现视频里的人物和风格迁移很好奇,觉得能做到这些,简直是太神奇了。因此,当论文复现营进入了论文精读得第二阶段,我就速读了两篇这方面的论文,Few Shot Vid2Vid 和 First Order Motion Model for Image Animation.
局限于水平太低,我实在看不出这两篇论文的主要目的有什么不同。只是感觉Few Shot Vid2Vid好像泛化能力要强一点,因为除了人物和表情迁移,它还能被用于街景迁移任务中,而且也没有类似泰勒展开式这些深奥的数学知识要求。
对于Few Shot Vid2Vid研究动机,研究任务和网络结构,老师在课件(文本,视频)上已经讲的很详细。我觉得在复现论文时,会面对许多挑战.
1. 第一步要准备好足够的数据集进行人物,表情和街景迁移任务训练。这一步应该不难,但可能会很耗时。
2. 输入的描述也让我觉得很困惑,比如来自目标域的K个示例图像e,相应的语义图像s是什么,它们跟驱动的视频是什么关系,应该怎么样获取,到现在为止,都还是个未知数。