深度学习——MetaFormer Is Actually What You Need for Vision

前言

本文总结CVPR2022的oral文章《MetaFormer Is Actually What You Need for Vision》。该文章研究了ViT结构和类MLP结构的模型,将两者中相同的部分提取出来,组成了MetaFormer结构,并指出两者的性能都得益于MetaFormer结构,接着在此基础上提出了PoolFormer结构。

MetaFormer结构

在这里插入图片描述
上图左侧为MetaFormer结构,MetaFormer中的Token Mixer模块用于混合多个token之间的信息。该模块在类ViT结构的模型中对应为Attention模块(例如DeiT),而在类MLP结构的模型中对应SpatialMLP模块(例如GMLP、ResMLP)。

作者指出MetaFormer结构为类ViT和类MLP模型性能的主要来源,为了验证这一点,作者将MetaFormer结构中的Token Moixer模块替换为恒等映射(其实就是一个大卷积模型,一个单通道的大卷积处理一个特征图(token)),模型在ImageNet上的top-1准确率仍可达 74.3%。

此外,作者通过实验发现去除Norm、Channel MLP、Shortcut中的任意一个模块,模型均难以收敛,由此验证了MetaFormer中的结构缺一不可。

PoolFormer结构

作者在MetaFormer的基础上引入了PoolFormer结构,PoolFormer通过平均池化融合多个Token之间的信息,相比于Attention和SpatialMLP,池化操作不会引入额外的参数,并且计算量更小。PoolFormer的结构如下图所示:
在这里插入图片描述
其中Pooling操作的Pytorch代码如下
在这里插入图片描述
注意到池化操作后有一个减法操作,作者的解释(见上图注释)我并不是很认可,这个操作更像是个trick,但是我没有在文章中找到去除这个减法操作后模型的性能变化情况。

PoolFormer在ImageNet上的准确率如下图所示,所有模型都没有使用pretrain的权重
在这里插入图片描述

个人思考详见上一篇博文,文章中还有目标检测等任务的实验结果,现在做backbone是越来越卷。

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值