2022.3.28 论文选读

The Principle of Diversity: Training Stronger Vision Transformers Calls for Reducing All Levels of Redundancy (CVPR2022)

本文探索了Vision Transformers的Redundancy in patch embedding, Redundancy in attentions, Redundancy in model weights,并提出了相应的方法改进。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
画图的diversity和叙事的方式值得我学习。

Give Me Your Attention: Dot-Product Attention Considered Harmful for Adversarial Patch Robustness(CVPR2022)

Dot-Product Attention对Adversarial Patch Robustness有害(由于对transformer还没系统学会,而且因为算力原因目前暂时不感兴趣)不过这篇文章先码着

CHAOS IS A LADDER: A NEW THEORETICAL UNDERSTANDING OF CONTRASTIVE LEARNING VIA AUGMENTATION OVERL (ICLR2022)

对比学习旨在通过数据增强构造正样本,然后用对比损失拉近样本与正样本之间的关系而疏远与负样本的关系。下图我认为展示了对比学习的精髓所在:
在这里插入图片描述
本文构造了一个增强图,如下图所示,我的理解是在输入空间对样本进行数据增强的效果可以理解为将原始输入的邻域纳入了其原始的输入空间,因此才有了增强的overlapping。
在这里插入图片描述
接着文章提出了一个指标ACR:
在这里插入图片描述
其效果:
在这里插入图片描述
结论是适度增强比较好。
一些其他的实验:
在这里插入图片描述
不同对比学习方法和参数k的选择的实验
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值