Effective Approaches to Attention-based Neural Machine Translation
nlp三大顶会:ACL、EMCNLP、NACL
学起于思,思起于疑
合抱之木,生于毫末,九层之台,起于垒土,千里之行,始于足下
NMT 神经机器翻译neural Machine transtation
eos sos bos end、star of sentence
端到端模型:撒见和训练都非常的简单
符合人类的翻译直觉,即阅读源的一句话,-明白意思–翻译成目标的一句话
seq2seq缺点
1、encoder将长句压缩成一个向量很难
2、decoder解码的时候会遗忘encoder的信息:
解决方式:将encoder的输出向量送到decoder的每一个时间步,即rnn神经网络
Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation
借助对齐的思想,翻译到某个词是,从源语言中找相关的词,让翻译更加的简单
Neural Machine Translation by Jointly Learning to Align and Translate
注意力机制
有很多信息,有些是有用的吗,,有些是没用的,如何自动去寻找目前这个状态下的有用信息
比如下图,y可能只与bc这两个词有关,而Z可能只与D有关
lcoal
hard attention 关注局部的词 比如0.1 0.2 0.1 0.2 0.4这几个词只会关注0.4,但是本文中的local使用了小的窗口,实现了lcoal的效果