89.77%准确率!谷歌大脑提出CoAtNet:结合卷积和注意力

谷歌大脑团队提出CoAtNet,结合卷积和注意力,实现89.77%的高准确率。该网络在不同数据规模下表现出优越性能,超越CvT、BotNet和Swin等模型。论文展示了深度卷积与自注意力的统一,并通过有原则的堆叠方式提高泛化和效率。
摘要由CSDN通过智能技术生成

本文系统调研了CNN和Transformer的特性,并将两者结合提出新的家族式网络:CoAtNet,无额外数据时高达86%准确率,在JFT加持下,高达89.77%!性能优于CvT、BotNet和Swin等网络。

谷歌两天祭出两大Backbone,昨天的ViT-G,今天的CoAtNet…

注:别老收藏呀,欢迎点赞,支持分享!

想看更多CVPR 2021论文和开源项目可以点击:

CVPR2021-Papers-with-Code

CoAtNet

CoAtNet: Marrying Convolution and Attention for All Data Sizes
在这里插入图片描述

  • 作者单位:谷歌大脑(Quoc V. Le等人)
  • 论文:https://arxiv.org/abs/2106.04803

Transformers 在计算机视觉方面吸引了越来越多的兴趣,但它们仍然落后于最先进的卷积网络。在这项工作中,我们表明虽然 Transformer 往往具有更大的模型容量,但由于缺乏正确的归纳偏差,它们的泛化可能比卷积网络更差。

为了有效地结合两种架构的优势,我们提出了 CoAtNets(发音为“coat”nets)

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值