CoAtNet: Marrying Convolution and Attention for All Data Sizes

谷歌研究者提出了CoAtNet,一种结合卷积和Transformer的新型网络,它在多种数据规模下表现优越。CoAtNet通过深度卷积和自注意力的融合,以及有原则的层堆叠,提高了泛化能力、模型容量和效率。实验显示,CoAtNet在ImageNet上未经额外数据预训练就能达到86.0%的准确率,而在使用JFT数据预训练后,准确率提升至89.77%,超越现有技术。
摘要由CSDN通过智能技术生成

本文系统调研了CNN和Transformer的特性,并将两者结合提出新的家族式网络:CoAtNet,无额外数据时高达86%准确率,在JFT加持下,高达89.77%!性能优于CvT、BotNet和Swin等网络。

谷歌两天祭出两大Backbone,昨天的ViT-G,今天的CoAtNet…

注:别老收藏呀,欢迎点赞,支持分享!

想看更多CVPR 2021论文和开源项目可以点击:

CVPR2021-Papers-with-Code

CoAtNet

CoAtNet: Marrying Convolution and Attention for All Data Sizes
在这里插入图片描述

  • 作者单位:谷歌大脑(Quoc V. Le等人)
  • 论文:https://arxiv.org/abs/2106.04803

Transformers 在计算机视觉方面吸引了越来越多的兴趣,但它们仍然落后于最先进的卷积网络。在这项工作中,我们表明虽然 Transformer 往往具有更大的模型容量,但由于缺乏正确的归纳偏差,它们的泛化可能比卷积网络更差。

为了有效地结合两种架构的优势,我们提出了 CoAtNets(发音为“coat”nets)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值