[Backbone]CAS-ViT: Convolutional Additive Self-attention Vision Transformers

1. BaseInfo

TitleCAS-ViT: Convolutional Additive Self-attention Vision Transformers for Efficient Mobile Applications
Adresshttps://arxiv.org/pdf/2408.03703
Journal/Time202408
Author清华
Codehttps://github.com/Tianfang-Zhang/CAS-ViT
Read20240829
TableVisonTransformer

2. Creative Q&A

  1. ViT 矩阵运算计算量大 -> CAS-ViT: Convolutional Additive Self-attention Vision Transformers 平衡效率和结果,轻量化的 backbone
    是 ViT 的进一步改版,可以应用在 image classfication、object detection 、 instance segmentation 、 semantic segmentation
    主要的创新在注意力模块。

3. Concrete

3.1. Model

在这里插入图片描述
a 是经典多头注意力
b 是 MobileViTv2 ,将最后的 NxN 矩阵变为了 1xC 的向量
c 是 SwiftFormer,去掉 V
d 是本文提出的卷积加和注意力,对空间和通道做了融合。
在这里插入图片描述
以分类为例。
下采样 4、8、16、32。
主要有 3 个部分,Integration subnet(借鉴 SwiftFormer 由 ReLU 激活的 3 个卷积层 ), CATM and MLP.

CATM 中的 空间和通道提取特征部分
SpatialOperation 只处理一个通道,为输入特征图的每个位置赋予了不同的权重
ChannelOperation, 它为输入特征图的每个通道赋予了不同的权重

3.1.1. Input

图片

3.1.2. Backbone

ModelParas(M)
CAS-ViT-XS3.20
CAS-ViT-S5.76
CAS-ViT-M12.42
CAS-ViT-T21.76

3.2. Training

3.2.1. Resource

16 V100 GPUs

3.2.2 Dataset

  • ImageNet-1K
  • ADE20K
  • COCO val2017
    几个经典数据集

3.3. Eval

  • ImageNet-1K Classification
    在这里插入图片描述
  • Semantic segmentation result on ADE20K
    在这里插入图片描述
  • Object detection and instance segmentation performance on COCO val2017
    在这里插入图片描述

3.4. Ablation

  1. CATM 的有效性
  2. 空间和通道注意力的有效性
  3. Q 和 K 的不同

在这里插入图片描述

4. Reference

  1. CNN-ViT 混合 [1] HATAMIZADEH A, HEINRICH G, YIN H, et al. FasterViT: Fast Vision Transformers with Hierarchical Attention[J]. 2023.
  2. PVTv2 [2] WANG W, XIE E, LI X, et al. PVT v2: Improved baselines with Pyramid Vision Transformer[J/OL]. Computational Visual Media, 2022: 415-424. http://dx.doi.org/10.1007/s41095-022-0274-8. DOI:10.1007/s41095-022-0274-8.
  3. FLatten Transformer: Vision Transformer using Focused Linear Attention 关注线性注意力模块 Focused Linear Attention
  4. EdgeViTs: Competing Light-weight CNNs on Mobile Devices with Vision Transformers
  5. EfficientViT: Memory Efficient Vision Transformer with Cascaded Group Attention
  6. SwiftFormer: Efficient Additive Attention for Transformer-based Real-time Mobile Vision Applications
  7. EdgeViTs: Competing Light-weight CNNs on Mobile Devices with Vision Transformers

5. Additional

代码挺简单的,主要看 CAS-ViT/classification/model/rcvit.py
实验部分的实验设置写的也挺详细。因为重点不在这就略过不写了。
Limitation 收敛速度快但可能模型越大或者数据集越大效果就不太好了。
结构确实简,参数量很小,试一下效果。

  • 17
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值