注意力机制Effective Approaches to Attention-based Neural Machine Translation

Effective Approaches to Attention-based Neural Machine Translation
nlp三大顶会:ACL、EMCNLP、NACL
学起于思,思起于疑
合抱之木,生于毫末,九层之台,起于垒土,千里之行,始于足下
NMT 神经机器翻译neural Machine transtation
eos sos bos end、star of sentence
端到端模型:撒见和训练都非常的简单
符合人类的翻译直觉,即阅读源的一句话,-明白意思–翻译成目标的一句话

seq2seq缺点
1、encoder将长句压缩成一个向量很难

2、decoder解码的时候会遗忘encoder的信息:
解决方式:将encoder的输出向量送到decoder的每一个时间步,即rnn神经网络
Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation

借助对齐的思想,翻译到某个词是,从源语言中找相关的词,让翻译更加的简单
Neural Machine Translation by Jointly Learning to Align and Translate

注意力机制
有很多信息,有些是有用的吗,,有些是没用的,如何自动去寻找目前这个状态下的有用信息
比如下图,y可能只与bc这两个词有关,而Z可能只与D有关
在这里插入图片描述
lcoal
hard attention 关注局部的词 比如0.1 0.2 0.1 0.2 0.4这几个词只会关注0.4,但是本文中的local使用了小的窗口,实现了lcoal的效果
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值