动手实现 Bahdanau 注意力模型

前一篇我们学习了 seq2seq 模型,从它的模型结构中我们可以看到存在两个瓶颈:

例如,当我们用 seq2seq 翻译一句话时,它的 Encoder 需要将原始句子中的主语,谓语,宾语,以及主谓宾之间的关系等信息都压缩到一个固定长度的上下文向量中,这个向量的长度通常只是 128 或者 256,如果输入数据很长时,就会有很多信息无法被压缩进这么短的向量中。

另一个瓶颈是,这个上下文向量在 Decoder 中只是在最开始的时候传递一次,之后都要靠 Decoder 自己的 LSTM 单元的记忆能力去传递信息,这样当遇到长句子时,记忆能力也是有限的。

于是为了改善这两个问题,Bahdanau 在 2015 年首次提出注意力模型。

在这个注意力模型中,Decoder 的每一个时间步都可以访问到 Encoder 的所有状态信息,这样记忆问题得以改善,而且在 Decoder 的不同时间步可以对 Encoder 中不同的时间步予以不同程度的关注,这样重要信息不会被淹没。

我们来更直观地对比看一下有和没有注意力机制的 seq2seq 模型有什么区别:

在没有注意力的 seq2seq 中,上下文向量是 Encoder 最后的隐向量,在 Attention 中,上下文向量是这些隐向量的加权平均。

在没有注意力的 seq2seq 中,上下文向量只是在 Decoder 开始时输入进去,在 Attention 中&#x

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值