关于attention机制的理解

1.encoder-decoder机制
中间会产生一个语义编码向量c,而这个c是固定长度的,且不变的。引入attention就是为了根据输出y来调整c。
2.attention的计算
encoder中存在隐藏状态h,c就是关于h的加权和
3.self attention
探索序列内部的关系

attention中的softmax

attention score 被称为相似度(匹配度、影响得分)
输入中的隐藏状态h1,h2,…对输出的影响不同,各自占有的权重应该是不一样的。
将得分映射到概率上就可以表示权重了。

进一步理解

1.首先隐藏状态的可以通过一些模型得到,比如由RNN encoder 输入(x1,x2,…)得到,同样输出y也是如此,它的隐藏状态可以设为s(有的资料为H),encoder的最后一个隐藏状态就是decoder的第一个隐藏状态。
st=f(st-1,yt-1,ct)
ct指的是context vector
权重是由st-1和h之间的相关性softmax得到的
求p(yi|y1,y2,…yi-1,si,ci)进行预测

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值