注意力机制

  1. 从人工翻译句子的经验中可以的到很多启发,从而改善我们提到的串到串模型。人工翻译句子的时候,首先阅读整个句子理解要表达的意思,然后开始写出相应的翻译。但是一个很重要的方面就是在你写新的句子的时候,通常会重新回到源语言的文本,特别注意你目前正在翻译的那部分在源语言中的表达,以确定最好的翻译结果。而我们前面提到编码器的隐含层状态,这个过程像人工翻译的第一部分,而通过编码器得到最终的翻译结果,解码器处理的是翻译的第二个部分。但是“特别注意”的部分在我们的串到串模型中还没有体现,这也是需要完成的部分。
  2. 为了在串到串模型中添加注意力机制,在解码器在产生t时刻的输出时让解码器访问所有从编码器的输出,这样解码器可以观察源语言的句子,这个过程时之前没有的。但是在每个时间步都考虑编码器的所有输出,这和人工翻译的过程还是不同的,人工翻译时对于不同的部分,需要关注源语言中特定的很小的部分。所以,直接让解码器工作的时候可以动态地注意编码器地输出地特定部分,有研究者提出的解决方案是把输入变成串联操作,在编码器的输出上使用一个带权重,也就是解码器在t-1时刻的状态,而不是直接使用其输出。具体做法是,首先为编码器的每个输出关联一个分数,这个分数由解码器t-1时刻的网络状态和每个解码器输出的点乘积得到的,然后用softmax层对这些关联分数进行归一化。最后,在加入到串联操作之前,利用归一化后的分数分别度量编码器的输出。这个策略的关键是,解码器的没和输出计算得到的关联分数,表示了每个编码器输出对解码器t时刻决策的重要程度。
  3. 注意力机制提出后受到了广泛的关注,并在语音识别、图像表述等应用上有很好的效果。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值