Attention Mechanism(注意力机制)

什么是注意力机制?

    深度学习中的注意力机制和人类视觉的注意力机制类似,就是在众多信息中把注意力集中放在重点的点上,选出关键信息,而忽略其他不重要的信息。权重代表了信息的重要性,权重越大代表越聚焦鱼其对应的值。(通俗理解:当我们人类在看东西时,一般会将注意力集中注视着某个地方,而不会关注全部所有信息。例如当我们一看到下面这张猫的图片时,主要会将目光停留在猫的脸部,以及留意猫的躯干,而后面的草地则会被当成背景忽略掉,也就是说我们在每一处空间位置上的注意力分布是不一样的。)

注意力机制的特点:

参数少
速度快
效果好

注意力机制的分类:

按照注意力机制的可微性,可分为:

Hard-Attention,就是0/1问题,某个区域要么被关注,要么不关注,这是一个不可微的注意力。
Soft-Attention,[0,1]之间连续分布问题,用0到1的不同分值表示每个区域被关注的程度高低,这是一个可微的注意力。

按照注意的关注域,可分为:

  • 空间域(spatial domain)
  • 通道域(channel domain)
  • 层域(layer domain)
  • 混合域(mixed domain)
  • 时间域(time domain)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值