A FREE LUNCH FROM VIT【阅读笔记】

这篇笔记探讨了论文《A FREE LUNCH FROM VIT》中提出的层间注意力机制,该机制旨在优化Transformer模型的分类性能。文章指出ViT各层的注意力权重贡献不均,通过引入新的层间注意力模块(SACM)来增强模型的表现。SACM的核心思想是'attention in attention',在推理阶段仅使用全局损失。消融实验显示,适当地调整层注意力权重对模型性能至关重要。
摘要由CSDN通过智能技术生成

论文地址:https://arxiv.org/abs/2110.01240
代码暂时未开源
好的文章推荐:https://zhuanlan.zhihu.com/p/645259799
好的文章推荐:https://zhuanlan.zhihu.com/p/418830088?utm_id=0
好的文章推荐:https://www.52cv.net/?p=8453
该论文2022发布在ICASSP上。

前言

建议先看一下,VIT,Trans-FG,RAMS-Trans
在这里插入图片描述
由上图观察到了ViT各层产生的注意力权重,其对于最终模型分类的贡献是不相等的。 所以如果能对层间的权重进一步引入注意力机制来学习,最终分类应该就能取得更好的结果。据此,作者设计了新的层间注意力机制,来进一步提升模型分类表现。
TransFG存在的问题:

  • 当生成注意图以选取token时,TransFG不能完全使用所有Transformer层的注意。
  • 着眼于全局损失的监管,缺乏多尺度、多分支的结合。

网络架构

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值