Cross-lingual embedding mappings 是NLP(或机器翻译)中一个常见的基础任务。通常,要使用神经网络来实现一些NLP的任务,我们需要为每个单词找到一个numerical representation/real vector。这种任务可以由word2vec过程来完成(具体方法有CBOW 和 skip-grams)。但一种语言的语料库只能生成一套word embeddings。在进行机器翻译的时候,我们要面对的是两种(及以上)不同的语言,这时就需要利用Cross-lingual embedding mappings 来 learn bilingual word embeddings。如下图所示,the underlying idea is to independently train the embeddings in different languages using monolingual corpora, and then map them to a shared space through a linear transformation.
本文主要分析ACL 2018的一篇相关论文:
A robust self-learning method for fully unsupervised cross-lingual mappings of word embeddings
并通过具体的例子演示该算法的效果
一、背景介绍
目前比较流行的方法可以分为如下两类&#