TransGAN: Two Transformers Can Make One Strong GAN

两个Transformers可变成一个强GAN!表现SOTA,性能优于AUTOGAN、SN-GAN等网络,部分代码刚刚开源!

注1:文末附【Transformer】和【GAN】交流群

注2:整理不易,欢迎点赞,支持分享!

TransGAN: Two Transformers Can Make One Strong GAN
在这里插入图片描述

  • 作者单位:UT-Austin, IBM研究院
  • 代码:https://github.com/VITA-Group/TransGAN
  • 论文:https://arxiv.org/abs/2102.07074

最近对Transformer的爆炸性兴趣表明,它们有潜力成为计算机视觉任务(例如分类,检测和分割)的强大“通用”模型。但是,Transformer还能走多远?他们准备好解决一些更难的视觉任务,例如生成对抗网络(GAN)吗?

在这种好奇心的驱使下,我们进行了第一个试点研究,即仅使用基于Transformer的架构来构建GAN ,完全没有卷积!

我们的GAN架构称为TransGAN,由一个基于memory的基于转换器的生成器和一个基于转换器的patch-level鉴别器组成,该生成器在减小嵌入尺寸的同时逐步提高特征分辨率。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Transformer GAN是指使用Transformer模型作为生成对抗网络(GAN)的一部分。GAN是一种机器学习模型,由两个部分组成:生成器和判别器。生成器负责生成逼真的样本,而判别器则负责判断这些样本是真实的还是生成的。传统的GAN通常使用卷积神经网络作为生成器和判别器的基础网络结构。 而Transformer GAN则将Transformer模型应用于GAN中。Transformer是一种自注意力机制的神经网络模型,最初被提出用于机器翻译任务。它通过自注意力机制来建模序列之间的依赖关系,而无需使用卷积或循环结构。Transformer模型在自然语言处理任务中取得了巨大的成功,并且也被应用到图像生成和处理任务中。 其中一篇相关的论文是"TransGAN: Two Transformers Can Make One Strong GAN",作者单位为UT-Austin和IBM研究院。这篇论文提出了一种使用两个Transformer模型组合成一个强大的GAN的方法。你可以在他们的GitHub仓库中找到相关的代码和论文链接。 另外,你可以参考《The Annotated Transformer》这本书的翻译,书中提供了对Transformer模型的详细注释和代码实现。这本书可以帮助你更好地理解Transformer模型的原理和应用。 总之,Transformer GAN是将Transformer模型应用于生成对抗网络的一种方法,它在图像生成和处理任务中具有潜力,并且有相关的代码和论文供参考。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [没有卷积!TransGAN:首个基于纯TransformerGAN网络](https://blog.csdn.net/amusi1994/article/details/113838735)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [李沐论文精读系列一: ResNet、TransformerGAN、BERT](https://blog.csdn.net/qq_56591814/article/details/127313216)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值