[ACL2017]Sequence-to-Dependency Neural Machine Translation

conventional NMT的翻译过程:
(1)an encoder reads in source sentences of various lengths
(1)encoder 读取变长的原句子这里写图片描述
(2) 将其转换为中间隐变量表示:这里写图片描述
(3)计算a ij , 并计算出c t , 然后由decoder生成目标语言

目前提出的NMT方法中大都致力于解决的问题包括
(1)out-of-vocabulary words
(2)designing attention mechanism
(3)to more efficient parameter
(4)using source-side syntactic trees for better encoding and so on
不同于以上的关注点:本文的主要想法是使用目标语言的句法知识以提高翻译的质量
在NMT framework 中利用target syntactic structures存在以下难点:
(1)如何用RNN生成句法树
(2)如何同时生成目标词序列和构建目标语的句法结构
(3)如何有效利用句法结构提高翻译质量
本文给出的解决方案是:decoder时给出两个RNN:
A: word-RNN 用于生成目标语
B: Action-RNN用于构建句法树(这个就是生成依存树的过程,采用的arc-standard algorithm)
此时又出现了一个严重问题:词序列和action序列长度不一致
解决方案:当Action-RNN预测的标签为SH(shift)时,word-RNN才生成目标词
为了使得生成的词序列与action序列保持一致,这里引入了虚拟的词序列标签这里写图片描述
ŷ j 的定义如下:
这里写图片描述
意思是说当action-RNN生成的标签是SH时,此时word-RNN生成目标词y vj , 否则不生成目标词而是复制v j1 时的生成词作为v j 时刻的生成词
为了有效利用action-RNN的结果,本文将公式(5)修改成了了公式(10)
这里写图片描述
这里写图片描述
公式(10)s j1 是j-1时候action-RNN的hidden state

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值