小米AI实验室最新研究论文收录于COLING 2022,介绍一种更有效的鲁棒性神经机器翻译训练方法...

小米AI实验室与厦门大学合作,一项关于提高神经机器翻译模型鲁棒性的研究被COLING 2022接收为口头报告。研究提出迭代式数据交替训练框架和动态噪音比例采样策略,解决了现有方法的不足,提升了模型在有噪音数据上的翻译质量和抗干扰能力。实验结果显示,这种方法在真实和模拟噪音测试集上均表现出色。
摘要由CSDN通过智能技术生成

COLING 全称为International Conference on Computational Linguistics,是自然语言处理领域重要的国际会议,由国际计算语言学委员会(International Committee on Computational Linguistics,ICCL)创办,每两年举办一次。小米AI实验室联合厦门大学提出的一种更有效的鲁棒神经机器翻译训练方法被COLING 2022 接收为大会口头报告(Oral)。

9d4c9cfca0899742bf7aad7141d02a8d.png

题目:Towards Robust Neural Machine with Iterative Scheduled Data-Switch Training

作者:缪忠剑,李响,康立言,张文,周楚伦,陈毅东,王斌,张民,苏劲松

01 

研究背景

神经机器翻译(Neural Machine Translation,NMT)一般基于高质量双语平行语料训练模型,在干净无噪音的测试集上获得了显著的翻译质量,并成为主流范式。然而,当待翻译的句子含有少量错误时,例如语音翻译中语音识别产生的错误,NMT通常会被噪音干扰产生错误译文。在真实应用场景中含有少量错误的句子十分常见,因此,提升NMT的鲁棒性,使其具备一定的抗干扰能力,不仅具有重要的学术研究价值,而且也是实际机器翻译产品应有的能力。

此前的研究者们主要从两个方面提升NMT的鲁棒性:

1. 面向数据的方法:可以视为一种数据增强的方法,针对实际错误类型构造含有噪音的对抗训练样本(Adversarial Training Example),并将其添加到原始训练数据中形成混合类型训练数据用于训练NMT模型;

2. 面向模型的方法:从优化模型结构和训练方法等维度入手,研究者们探索过多任务学习, 对比学习,对抗训练,引入额外模块等方法提升NMT鲁棒性。

虽然上述方法有效提升了NMT的鲁棒性,但仍存在两点不足:

1. 在利用对抗训练样本时,往往不加区分地使用对抗训练数据和原始训练数据混合而成的训练数据,由于两种数据存在较大差异,因此直接粗暴使用混合数据不是最佳选择;

2. 在构建对抗训练样本时,往往按照固定比例对干净样本添加错误(噪声),比例过大降低模型在干净无噪音数据上的翻译质量,反之则无法有效提升模型对噪音数据的抗干扰能力,因此使用固定噪音比例不是最佳选择。‍‍‍‍‍‍‍‍‍

基于课程学习思想,我们提出了一种更有效的构建和使用对抗训练样本方法来提升NMT鲁棒性,引入了两个训练阶段,每个阶段使模型专注于基于原始训练数据或对抗训练样本进行优化,克服了同时使用混合数据的缺陷。为了更好地学习这两类数据,防止灾难遗忘问题,我们迭代式的开展两个训练阶段。此外,为了防止固定噪音比例构建对抗训练样本的不足,我们设计了一种基于课程学习的噪音比例采样方法,在每个训练阶段渐进式增加噪音比例使模型能够从易到难学习训练数据中的噪音。

本文方法具有如下优势:

  • 我们的训练框架使得NMT能够更加专注优化原始干净样本和对抗样本,实验证实这种训练策略能够获得更好的性能;

  • 设计了基于采样的课程学习策略来控制用于生成噪声数据的噪音比例,使得模型能以从易到难的顺序学习对抗样本的信息,实验证实了该方案的优越性;

  • 和模型结构无关,适用于不同的NMT模型,并且可以应用于其他NLP任务。

02 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值