Attention

x:待测样本 xi:已有样本   a相当于测量两个样本的相似度  根据已有样本的标签做预测

pooling整合的motivation是找出最大响应的那些值,去抑制没有响应的值 如图像背景

数据清洗

小x相当于query X相当于key 计算相似度 来筛选

feature embeding的思想:把很多样本做一个整合,这个特征向量中包含很多信息

attention------softmax   用softmax对attention进行建模

应用领域:单词 句子

attention 在图像上边  就是对像素进行加权 query就是每个像素 key 就是像素周围的样本

像self-attention 关注的是图像内部  像素跟周围上下文context之间的关系

没有考虑attention和attention之间的关系

query相当于问题  key相当于那些句子 通过query跟key的关系做一个结果的预测

关注attention和attention之间的关系

海跟船的关系相当于一种attention,最后还要作用在seasea上 加深sea的判别率 。相当于self-attention

query跟key计算weights然后attention作用在自身  ,挖掘图像中实例跟实例之间的关系,这种关系还要作用在自身特征增强方面

attention可解释性差 因为很难讲清楚学到的关系 通过权值的高低来表达 但具体跟任务 如何是相关联的

在vqa 语言是好解释的  但是在视觉上可解释行差 结合meaning 因果关系 会不会好些?

 

STN也是用了attention 可以看一下

attention打破了x y之间的关系 y可能跟一堆x相关 在图像上 y可能跟上下文相关

attention打破了local和non-local的方式 来算一种权值,

进一步挖掘样本空间潜在的关系,是一种新的思路

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值