LIVE 预告 | TransGAN:丢弃卷积,纯Transformer构建GAN网络

TransGAN是首个完全放弃卷积,仅使用Transformer构建的GAN网络。研究发现,这种架构在数据增强、多任务训练和局部初始化自注意力方面表现出优势,能有效扩展到更大模型和更高分辨率图像。此研究由德克萨斯大学奥斯汀分校的江亦凡等人提出,论文在ArXiv上引起广泛关注,并将于2021年2月24日进行在线分享。
摘要由CSDN通过智能技术生成

自2014年Ian J. Goodfellow等人提出以来,生成对抗网络(GAN,Generative Adversarial Networks)便迅速成为人工智能领域中最有前景的研究方向之一。

 

而另一方面,Google团队在2017年提出的Transformer架构近年来也如火如荼,迅速从 NLP 领域蔓延到 CV、语音等领域。近期的一些研究表明,Transformer 有足够的潜力成为强大的“通用”模型。基于对这一问题的思考,来自德克萨斯大学奥斯汀分校的江亦凡等人提出这一问题:

 

Transformer 还能走多远?

 

换句话说:

 

Transformer 能否应用到一些极为困难的视觉任务,例如生成对抗网络(GAN)吗?

 

在这一问题的驱使下,他们近期进行了第一个尝试:丢弃卷积,仅使用 Transformer 架构来 GAN 网络。

 

与其它基于 Transformer 的视觉模型相比,仅使用 Transformer 构建 GAN 更具挑战性,因为生成真实图像的门槛更高,而且GAN训练的不稳定性也更高。

 

他们将这个网络命名为:TransGAN。

 

简单来说,他们使用两个Transformer网络分别构成了生成器和

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值