论文笔记《Neural Machine Translation by Jointly Learning to Align and Translate》

中文题名:基于联合学习对齐和翻译的神经机器翻译目录摘要背景:神经机器翻译任务定义编码器-解码器框架(基线)编码器(基线)解码器(基线)模型效果存在的问题学习对齐和翻译RNNenc vs RNNsearchRNNsearch的编码器RNNsearch的解码器注意力思想注意力机制RNNsearch模型的解码器的计算步骤RNNsearc...
摘要由CSDN通过智能技术生成

中文题名:基于联合学习对齐和翻译的神经机器翻译

目录

摘要

背景:神经机器翻译

任务定义

编码器-解码器框架(基线)

编码器(基线)

解码器(基线)

模型效果

存在的问题

学习对齐和翻译

RNNenc vs RNNsearch

RNNsearch的编码器

RNNsearch的解码器

注意力思想

注意力机制

RNNsearch模型的解码器的计算步骤

RNNsearch模型

实例

实验设置和结果

实验设置

评估标准——Bleu

模型效果

实验结果分析

未来工作


  • 摘要

  1. 神经机器翻译的任务定义
  2. 传统神经机器翻译所用的编码器-解码器模型的缺陷
  3. 本文提出一种能够自动搜索原句中与预测目标词相关的神经机器翻译模型
  4. 所提出的模型的效果

 

  • 背景:神经机器翻译

任务定义

该模型采用1到K编码的字向量的源语言句子作为输入:x=(x_{1},...,x_{T_{x}}),x_{i}\in\mathbb{R}^{K_{x}}

并输出由1到K编码的字向量的目标语言句子:y=(y_{1},...,y_{T_{y}}),y_{i}\in\mathbb{R}^{K_{y}}

任务目标:评估函数argmax_{y}p(y|x)

编码器-解码器框架(基线)

模型名称:RNNenc

编码器(基线)

x=(x_{1},...,x_{T_{x}}):表示一个输入句子的序列

h_{t}=f(x_{t},h_{t-1}):表示编码器的隐层状态

c=q(\left \{ h_{1},...,h_{T_{x}} \right \}):表示由句子序列的隐层状态生成的上下文向量

编码器读取输入句子序列x,生成一个上下文向量c

解码器(基线)

y=(y_{1},...,y_{T_{y}}):表示一个生成句子的序列

s_{t}=f(c,y_{t-1},s_{t-1}):表示解码器的隐层状态

解码器是用来在给定上下文向量c和所有之前的预测词\left \{ y_{1},...,y_{​{t}'-1} \right \}时预测下一个词

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值