ACL 2019最佳论文出炉:华人团队包揽最佳长短论文一作,中科院、华为等榜上有名...

郭一璞 安妮 边策 发自 凹非寺
量子位 出品 | 公众号 QbitAI

ACL 2019最佳论文新鲜出炉了。

刚刚,自然语言处理领域的顶会ACL 2019公布最佳论文,本次共颁布了4个奖项,共有8个获奖名额,分别是:

  • 最佳长论文

  • 最佳短论文

  • 最佳DEMO论文

  • 5篇杰出论文奖

今年,华人一作团队拿下了最佳长论文、最佳短论文和2篇杰出论文,中科院、中国科学院大学、腾讯、华为诺亚方舟实验室、南京理工大学、香港理工大学等榜上有名。

今年的ACL 2019空前热闹。据ACL官方发布的数据显示,今年共收到2906篇投稿,相比于去年的1544篇投稿量增加了75%以上。

来看看今年的最佳论文讲了什么,各个国家、机构的战况又如何:

640?wx_fmt=png

最佳长论文

最佳长论文获奖者是中国的研究人员,这篇论文名为:

Bridging the Gap between Training and Inference for Neural Machine Translation

640?wx_fmt=jpeg

 图片来自推特用户Aarne Talman

文章来自中科院计算所智能信息处理重点实验室、中国科学院大学Wen Zhang和Yang Feng、腾讯微信AI的Fandong Meng、伍斯特理工学院的Di You和华为诺亚方舟实验室的Qun Liu。

这篇文章研究了应该如何弥合神经机器翻译(NMT)训练和推理之间的差距。

神经机器翻译(NMT)是根据上下文内容预测下一个词的一种方式,推理过程遵循从头开始、按顺序生成整个序列。这就导致由于上下文都未标注产生的累积误差。

此外还有一个挑战是,单词级训练要求生成的序列与ground truth序列严格匹配,这就造成对不同但合理的翻译进行过度校正。

在这篇文章中,研究人员提出了一种解决上述问题的方法,称为过矫正恢复(Overcorrection Recovery,OR)。

简单来说,在训练过程中,不仅从ground truth序列中抽取上下文单词,而且从模型预测的序列中抽取上下文单词,并选择句子级最优的预测序列。

也就是说,在翻译过程中,模型不需要再逐词对比标准来确定损失函数了。

具体来看:

640?wx_fmt=png

这种方法先从预测单词中选择oracle单词,然后将oracle单词和ground truth单词作为上下文的样例。

同时,oracle单词不仅通过逐字贪婪搜索来选择,还会通过句子级评估(例如BLEU)。在训练开始时,模型以比较大的概率选择上下文真实词,随着模型逐渐收敛,oracle词语被更频繁地选择为上下文。

研究人员在中文->英文和WMT’14英文->德语翻译任务上进行了实验,结果表明,这种新方法可以在多个数据集上实现提升。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值