Attention机制

1、直观理解

attention 就是权重
其本质就是加权求和,解决对于context的理解

2、以此为基础的模型

transformer、bert、gpt

3、RNN

建立隐层之间时序关联:每一时刻的隐层状态St不仅取决于输入Xt,还包含上一时刻状态St-1

4、Encoder-Decoder

1. 两个RNN组合,先编码再解码
2. 缺点:不管输入多长,都先编码成一个长度相同的向量c,导致精度下降

5、正经理解

1. 不再是编码成一个向量C,而是每个时间生成不同的C,Ct = t时刻所有输入*t时刻所有输入对应的权重
2. 对于Ct而言,t时刻的输入权重即为attention(或者说Ct对于不同的输入,要给予不同的注意力)
3. attention权重矩阵可以通过训练得到

6、self-attention

1.attention摆脱输入序列长度限制,但RNN需要逐个看过句子单词才能给出输出,速度太慢
2.self-attention先提取每个单词的意义,然后根据生成顺序选取所需要的信息
通俗理解:人们对于一个人的印象,不仅取决于他/她今天的打扮(encoder编码了),还来自于人们对他/她之前的印象(已经翻译得到的)

7、三大优点

参数更少、速度更快、效果更好

8、联系

人类视觉也是一种attention机制,能将有限注意力放到重点信息上,节省资源,获得最有效的信息。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值