【论文阅读】Towards Robust Neural Machine Translation

论文信息

ACL2018 来自腾讯

提出背景

  在神经机器翻译中,由于引入了循环神经网络和注意力机制,上下文中的每个词都可能影响模型的全局输出结果,类似于蝴蝶效应。
  比如说,同声传译里面的同音异形词;文本中的拼写错误
  输入的小的扰动会影响神经机器翻译的质量,在这篇文章中提出了利用对抗训练来提高NMT模型的robustness的方法。

具体方法

该方法的架构示意图如下图所示:
架构示意图
  其工作过程为:给定一个输入句子 x,首先生成与其对应的扰动输入 x’,接着采用对抗训练,让编码器对于 x 和 x’ 生成相似的中间表示,同时要求解码器端输出相同的目标句子 y。这样能使得输入中的微小扰动不会导致目标输出产生较大差异。
  对于翻译过程来说,有两个阶段:首先把输入x编码成隐藏状态 H x H_x Hx,然后从隐藏状态 H x H_x Hx中解码得到翻译y。
  模型有两个目标:
(1)编码得到的 H x ′ H_{x'} Hx H x H_{x} Hx相近。
(2)给定 H x ′ H_{x'} Hx,解码器可以输出robust翻译y。

训练的目标函数

J ( θ ) = ∑ < x , y > ∈ S ( L t r u e ( x , y ; θ e n c , θ d e c ) +

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值