近期,人工智能专家Animesh Karnewar提出FAGAN——完全注意力机制(Full Attention)GAN,实验的代码和训练的模型可以在他的github库中找到:
https://github.com/akanimax/fagan。
这个fagan示例使用了我创建的名为“attnganpytorch”的包,该包在我的另一个存储库中可以找到:
https://github.com/akanimax/attnganpytorch。
![7a2b60331651aa0edd68d72d37e8e6a3d66e175d](https://i-blog.csdnimg.cn/blog_migrate/de8e16f401d257447cb1db9b385d8d53.png)
FAGAN: Full Attention GAN
介绍
在阅读了SAGAN (Self Attention GAN)的论文后,我想尝试一下,并对它进行更多的实验。由于作者的代码还不可用,所以我决定为它编写一个类似于我之前的“pro-gan-pth”包的一个package。我首先训练了SAGAN论文中描述的模型,然后意识到,我可以更多地使用基于图像的注意机制。此博客是该实验的快速报告。
SAGAN 论文链接:
https://arxiv.org/abs/1805.08318