无需新型token mixer就能SOTA:MetaFormer视觉基线模型开源,刷新ImageNet记录

35d433ea36c6b3923d9db98fa08d7006.gif

©作者 | 机器之心编辑部

来源 | 机器之心

来自新加坡国立大学和 Sea AI Lab 的研究者开源了四种 MetaFormer 基线模型,通过使用最基本或者最常见的 token mixer,探索了 MetaFormer 的下限、通用性和潜力。值得注意的是,所提模型之一 CAFormer 基于 ImageNet 常规有监督训练(无额外数据和蒸馏),在 224x224 分辨率上取得 85.5% 的新纪录,相比之前的 SOTA 模型减少了 55% 的参数量和 45% 的计算量。此外,该团队所提出的激活函数 StarReLU 比常用的 GELU 减少了 71% 的计算量,但取得了更好的性能。

f15411369d6c3f25f04a082fba0528cb.png

论文标题:

MetaFormer Baselines for Vision

论文链接:

https://arxiv.org/abs/2210.13452

代码链接:

https://github.com/sail-sg/metaformer

去年,该团队的一篇论文《MetaFormer Is Actually What You Need for Vision》引起研究社区关注。该论文针对 Transformer 模型 “Attention is all you need” 的观点提出了不同看法,即 MetaForemr 猜想 “MetaFormer Is Actually What You Need”。

该论文通过把 attention 模块抽象成 token mixer,从而将 Transformer 抽象成通用架构 MetaFormer。为了验证 MetaFormer 猜想,作者把 token mixer 设置为极为简单的池化算子,发现所得模型 PoolFormer 性能居然超过了 ViT/MIL-like/ResNet 等模型,实验结果很好地验证了 MetaFormer 猜想。

c34d4ef557ada0245e3bd1efada641cb.png

▲ 图源:该团队去年的论文《MetaFormer Is Actually What You Need for Vision》(CVPR 2022 Oral)

最近,该团队再次进一步探究通用架构 MetaFormer 的各种性质:他们在 MetaFormer 框架下,通过使用最基本或者最常见的 token mixer,引入了几种 MetaFormer 基线模型,并总结了他们的观察。

1. MetaFormer 确保可靠的性能下限。

为了探索模型的性能下限,作者将 token mixer 设定为恒等映射。实验发现,这个名为 IdentityFormer 的简陋模型,在 ImageNet 上竟然能取得超过 80% 的准确率。

2. MetaFormer 使用任意 token mixer 也能工作。 

为了探索 MetaFormer 对于 token mixer 的通用性,作者使用全局随机矩阵(随机初始化后固定住)来混合 token。具体地,对于四阶段模型,作者将后两阶段的 token mixer 设置为随机混合,而前两阶段的 token mixer 仍然保持为恒等映射,以避免引入过多计算量和固定参数。

所派生的 RandFormer 模型被证明是有效的,准确率相比 IdentityFormer 提高了 1.0%,为 81.4%。这一结果证明 MetaFormer 对于 token mixer 有很好的通用性。因此,当引入新奇的 token mixer 时,请放心 MetaFormer 的性能。

0153078c943f215f1c1fa148a1de4987.png

▲ 图1:MetaFormer 基线模型和其他最先进模型在 ImageNet  224x224 分辨率上的性能。该论文所提模型的具体架构展示在后续的图 2 中。(a) IdentityFormer/RandFormer 取得超过 80%/81% 的准确率,表明 MetaFormer 具有可靠的性能下限,并且使用任意 token mixer 都能很好地工作。图中 ResNet-50 的准确率来自论文《ResNet strikes back》。(b) 使用经典可分离卷积做为 token mixer 的 ConvFormer (可视为纯 CNN)大幅优于 ConvNeXt,而使用可分离卷积和原始 self-attention 作为 token mixer 的 CAFormer 在常规有监督训练下(无额外数据和蒸馏),在 ImageNet 224x224 分辨率上创造了 85.5% 准确率的新记录。

9d83069ba97876880b9baa1edb767c89.png

▲ 图2:(a-d)IdentityFormer、RandFormer、ConvFormer 和 CAFormer 的总体框架。与 ResNet 类似,模型采用四阶段架构,阶段 i 具有特征维度为 Di 的 Li 个 block。每个下采样模块由一层卷积实现。第一个下采样的 kernel 大小为 7,stride 为 4,而后三个下采样的 kernel 大小为 3,stride 为 2。(e-h) IdentityFormer、RandForemr、ConvFormer 和 Transformer block 的架构,它们的 token mixer 分别为恒等映射,随机混合,可分离卷积和原始 self-attention。

3. MetaFormer 轻松地提供 SOTA 性能。无需设计新的 token mixer,仅需装备五年前的 “老式” 算子,所衍生的 MetaFormer 具体模型就实现了 SOTA。

ConvFormer 大幅优于 ConvNeXt。通过简单地将 token mixer 设定为可分离卷积,所衍生的纯卷积模型 ConvFormer 性能大幅优于 ConvNeXt。

CAFormer 刷新 ImageNet 记录。通过将四阶段模型的前两个阶段的 token mixer 设置为可分离卷积,后两个阶段设置为原始的 self-attention,所衍生模型 CAFormer 在 ImageNet 无额外数据常规有监督训练下,在 224x224 分辨率上创造 85.5% 准确率的新纪录。

8305c560d10375663801d9e4737fbff7.png

▲ 图 3:各种先进模型(图中 Swin 都成了垫底)在 ImageNet 224x224 上准确率、计算量和模型规模的比较。□、△和○分别代表 CNN 类,attention 类和混合类模型。在各个维度的计算量和模型规模下,ConvFormer 均优于同类 CNN 模型;CAFormer 明显优于其他各类模型。值得注意的是 CAFormer 取得新的准确率记录 85.5%,不仅超过之前 MViTv2 取得的 85.3% 的记录,还比 MViTv2 减少了 55% 的参数量和 45% 的计算量。

4. 新型激活函数 StarReLU 超越 GELU。此外,作者还提出了新型激活函数 StarReLU 用以取代常用的 GELU 激活函数。该函数为平方 ReLU 的变体,为消除分布偏移而设计。StarReLU 每个神经元仅需 4 FLOPs,相比 GELU (14 FLOPs)减少了 71% 的计算量,却取得更好的性能。ConvFormer-S18 模型在 ImageNet 数据集上,使用 StarReLU 相比 GELU 准确率提升 0.3%,相比 ReLU 提升了 0.9%。

ac2553e913eb7e6e9dfd32100fb065da.png

其中 s 和 b 为所有通道共享的标量,可设为固定值或者可学参数。

以上作者通过将 token mixer 设置为最基本或者最常见的算子(恒等映射、随机混合、可分离卷积和原始 self-attenton)来进一步探索 MetaFormer 架构的下限、通用性和潜力。所提各种 MetaFormer 模型可作为视觉领域可靠的基线。相信当引入更先进 token mixer 或者训练策略时,MetaFormer 类模型会打破记录,取得新的 SOTA。

更多阅读

2582de360a4cf8b81623dd4cbc6e5429.png

a91bd6e182e63ce6890092b3c9f5c73a.png

995acf28cbd61309cf0008e90e491af6.png

f49fd5ae4b2021f52dc7ef2d792cd42b.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

b135137a7c2c463faff2471fbd12abc5.jpeg

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值