第六十一周周报

学习目标:

代码

实验

论文

学习时间:

2023.11.4-2023.11.10

学习产出:

代码

1、修改CelebA64数据集的代码,实验暂时没跑完
2、添加CB模块,实验暂时没跑完
3、修改ViTGAN的CIPS Generator位置编码为傅里叶编码

实验

1、消融实验调整顺序还在进行中
2、相对位置编码出了一个新结果但还是没傅里叶编码好
3、cifar100数据集暂时跑出了一个比原效果好的结果,但是还没跑完

论文

SCRATCHING VISUAL TRANSFORMER’S BACK

WITH UNIFORM ATTENTION

1、模型图

在这里插入图片描述

2、思想

该论文主要研究Vision Transformer,ViT的效果好主要是多头自注意力的原因,本文发现ViT中的注意力大部分具有高熵值,即MSA偏向于学习密集的相互作用(极端情况就是均匀注意力),尽管密集自注意力的梯度更陡峭,更难学习(均匀注意力可以被单个梯度打破)。文章引入显式广播上下文(CB)和维度缩放CB(CBS),将每一层的token进行平均池化后再提供给token,即由CB模块提供均匀注意力:
在这里插入图片描述
效果最好的是在MLP的末端。

3、效果

图像分类的效果
在这里插入图片描述
语义分割的效果
在这里插入图片描述

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值