文章来源 | 恒源云社区(一个专注 AI 行业的共享算力平台恒源智享云)
原文地址 | [机器翻译] 21.7 mRASP2
原文作者 | 角灰
Contrastive Learning for Many-to-many Multilingual Neural Machine Translation
github:
摘要:
现有的多语言模型聚焦于英语为中心的翻译,而非英语的方向远远落后。本文旨在一个多对多翻译系统,重点是非英语语言方向的质量。基于这样一个假设:通用的跨语言表示会导致更好的多语言翻译性能。为此提出了一种训练方法mRASP2,以获得单一统一的多语言翻译模型。mRASP2的核心在于如下两点:
- 通过对比学习拉近多语言表示对齐语义空间
- 同时使用平行和单语语料进行对齐增强
结论:
- 对比学习确实能提升零资源翻译
- 使用单语数据,所有翻译方向上都取得了实质性的改进。
- 分析并可视化了本文方法,对比学习确实能够拉近不同语言语义的表征