On the Properties of Neural Machine Translation: Encoder–DecoderApproaches

摘要

Neural machine translation : 神经机器翻译

神经机器翻译模型经常包含编码器和解码器:an encoder and a decoder.

编码器: 从一个变长输入序列中提取固定长度的表示。a fixed-length representation.

解码器:从表示中生成一个正确的翻译。generates a correct translation

本文使用模型: RNN Encoder–Decoder、

     a newly proposed gated recursive convolutional neural network (门递归卷积神经网络)

 a grammatical structure 语法结构

介绍

问题:

it is crucial to understand the properties and behavior of this new neural machine translation approach in order to determine future research directions. Also, understanding the weaknesses and strengths of neural machine translation might lead to better ways of integrating SMT and neural machine translation systems

变长序列神经网络:

循环神经网络、门递归卷积神经网咯

RNN更新:

RNN序列可以有效的学习一个概率分布:

Gated Recursive Convolutional Neural Network 

 

Purely Neural Machine Translation

编码器和解码器方法

实验

数据集: English-to-French translation.

模型:

两个模型的共同点:an RNN with gated hidden units as a decoder

优化算法:minibatch stochastic gradient descent with AdaDelta

使用beam-search去发现最大化条件概率分布。

结果和分析

the BLEU score 作为评价指标。

the fixed-length vector representation does not have enough capacity to encode a long sentence with complicated structure and meaning

固定长度的向量表示并没有足够的能力去编码一个包含复杂语义信息的长句子

感悟

需要彻底理解以下条件概率分布以及RNN网络的数学推导。研读论文需要注意以下其算法原理。以及评价指标。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

big_matster

您的鼓励,是给予我最大的动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值