Attention机制

1. Seq2Seq

https://blog.csdn.net/weixin_44305115/article/details/101461899

在这里插入图片描述

向量C就是输入序列通过Encode得到的序列的编码,代表在某一个向量空间的输入序列的编码。

2. Attention机制

但是由于在解码的时候,都依赖于这一个唯一的C,w1,w2,w3在解码的时候,所关注的部分是没有区别的,所以提出Attention机制,来优化Seq2Seq。

理想情况下,在一位一位进行解码的过程中,C应该有所区别,代表当前解码时,Decoder更关注的是输入序列的哪个位置(这个直观想法非常好)

1) Bahdanau Attention

《NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE》

2)LuongAttention

《Effective Approaches to Attention-based Neural Machine Translation》

计算过程:

 

3)location-based attention

上两个图是pytorch Seq2Seq with attention 的toturial,use location-based attention。

4)多种Attention:

参考:

https://blog.csdn.net/u010960155/article/details/82853632 

https://blog.csdn.net/weixin_44305115/article/details/101461899

https://zhuanlan.zhihu.com/p/272662664

https://github.com/graykode/nlp-tutorial/blob/master/4-2.Seq2Seq(Attention)/Seq2Seq(Attention).py  (LuongAttention)

https://blog.csdn.net/wi162yyxq/article/details/103600170

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值