今天来看一篇few-shot适应的论文,还挂在arxiv上,同时在github上也有开源的项目:http://www.estherrobb.com/few-shot-gan/
这篇文章叫做FSGAN,全名《FEW-SHOT ADAPTATION OF GENERATIVE ADVERSARIAL NETWORKS》,来自弗吉尼亚理工和谷歌研究院。谷歌研究院就喜欢搞一些开源、video什么的。
那么这篇文章做了一件什么事呢?对于一个生成网络,我们本来需要大量的数据才能训练出一个好的结果,但是在某些情况下,我们只能获得少量的数据。因此合理地利用先验知识,在这个域中只使用少量数据就得到较好的结果就变得有必要了。
那么就来看看是怎么做的吧:
这篇文章也是基于stylegan2,stylegan解析请移步:https://blog.csdn.net/wenqiwenqi123/article/details/110136887
首先作者发现,针对预训练好的stylegan2,对style和卷积层进行奇异值分解,然后放大排前三的奇异值,可以发现,不同奇异值对于人脸有着不同的控制。