多语言AI的现状

译者 | 丁妍

单位 | 东北大学自然语言处理实验室

来自 | 机器翻译学堂

-01-

作者介绍

Sebastian Ruder是Google的研究科学家,致力于研究代表性不足的语言的自然语言处理(NLP)。在此之前,他是DeepMind的研究科学家。他在Insight Research Centre for Data Analytics完成了自然语言处理和深度学习博士学位。在学习期间,他曾与微软,IBM的Extreme Blue,Google Summer of Code和SAP等公司合作。

58c01c54718f90ad819bd7eb90fde57f.png

进NLP群—>加入NLP交流群

-02-

译者说

据统计,世界上有超过7000种不同的语言,每种语言都承载着不同的文化。但是在历史的长河中,已经有很多语言已经消失或者濒临消失。笛卡尔曾经说过:“语言的分歧是人生最大的不幸之一”。长久以来,实现不同语言之间的互通,能够在经济活动、文化交流中消除语言造成的隔阂,是人类共同努力的方向。多语言的模型可以抵消现有的语言鸿沟,确保一些非主流语言的使用者不会落后。而当下的一些语言模型主要集中在英语和其他具有大量资源的语言上,对一些濒危语言或者代表性较差的语言的研究十分不足。无论是当下最流行的语言模型比如ChatGPT(目前我们已知它支持至少95种语言),还是Meta-AI最新开发的多语言模型NLLB-200(目前种类最多的多语言翻译模型,可以实现200+语言的互译),都无法实现世界上所有语言的互通,就更不用提在低资源语言上进行其他研究了。因此,开发适用于更多语言的模型十分重要。

原文链接:https://www.ruder.io/state-of-multilingual-ai/

-03-

译文大纲

  • 多语言研究现状

  • 近期进展

  • 挑战与机遇

-04-

译文

多语言研究现状:

全世界大约有7000种语言。大约400种语言的用户超过100万,大约200种语言的用户超过10万[1]。有研究人员[2]回顾了在ACL 2008上发表的论文,发现63%的论文都集中在英语上。对于最近的一项研究[3],同样回顾了ACL 2021的论文,发现近70%的论文仅在英语上进行评估。10年过去了,以英语为主流的现象似乎没有什么变化。

同样的,使用这些低资源语言的研究人员在ML和NLP社区中的代表性同样不足。例如,虽然我们可以观察到隶属于非洲大学的作者数量在顶级机器学习(ML)和NLP场所发表文章略有上升趋势,但与每年来自其他地区的数千名作者在这些场所发表文章相比,这种增长相形见绌。

9ca2501041bb38c6b6a3491d9deaa175.png

图1. 非洲NLP研究人员在顶级ML和NLP会议中的代表。*:不考虑在国外工作的非洲作家。数据基于:Marek Rei的ml_nlp_paper_data。NLP会议:ACL,CL,COLING,CoNLL,EACL,EMNLP,NAACL,TACL;ML会议:AAAI,ICLR,ICML,NeurIPS。

许多 ML 领域中当前最先进的模型主要基于两个要素:1) 大型的可扩展模型结构(通常基于 Transformer[4])和 2)迁移学习[5]。鉴于这些模型的一般性质,它们可以应用于各种类型的数据,包括图像[6],视频[7]和音频[8]。最近NLP中一些成功的模型如BERT[9],RoBERTa[10],BART[11],T5[12]和DeBERTa[13],它们使用了多种掩码语言建模(masked language modeling)方法的变体在数十亿个token的文本上进行了训练。在语音方面,wav2vec 2.0[14]也在大量未标记的语音上进行了预训练。

多语言模型 : 在当下的深度学习领域中,许多较为先进的模型都在数十亿个token的文本上使用了多种掩码语言建模(masked language modeling)进行预训练。在NLP中,诸如mBERT,RemBERT[15],XLM-RoBERTa[16],mBART[17],mT5[18]和mDeBERTa[13]等模型,都使用了类似的方式进行训练:在大约100种语言的预料上,随机预测被mask的token。与单语模型相比,这些多语言模型需要更大的词汇表来表示多种语言中的token。同时,也有一些研究致力于学习更鲁棒的多语言表示,包括shared token[19],subword fertility[20]和词嵌入对齐[21]等方法。在语音中,XSLR[22]和 UniSpeech[23]等模型分别针对 53 种和 60 种语言的大量未标记数据进行了预训练。

多语言的诅咒 : 为什么这些模型最多只能涵盖 200种语言?其中一个原因是“多语言的诅咒”[16]。与许多其他任务的训练过程相似,模型预训练数据的语言越多,可用于学习每种语言表示的模型容量就越少。增加模型的大小在一定程度上可以改善这一点,使得模型能够为每种语言提供更多容量[24]

预训练数据的缺乏 : 除了模型容量,多语言模型的另一个限制因素是数据。网络上的数据偏向于西方国家使用的语言,对于那些低资源数据严重不足。这令人担忧,因为之前有研究表明,预训练数据量与某些任务的下游性能相关[25][26][27]。特别是,在预训练期间从未见过的语言通常会导致模型在实际应用中性能不佳[28][29]

edb0f6f599443d111f6c9e01af1d2dc8.png

图2. 维基百科和 CommonCrawl[16] 中统计的 88 种语言和其对应的数据量(对数尺度)。

现有多语言资源的质量问题 : 即使对于数据丰富的语言,过去的工作也表明,一些常用的多语言资源存在严重的质量问题。例如WikiAnn[30](基于维基百科的弱监督多语言命名实体识别数据集)中的实体跨度有很多是错误的[31]。同样,一些自动挖掘的资源和用于机器翻译的自动对齐语料库也是有问题的[32]。但是总的来说,在代表性不足的语言中,性能似乎主要受到数据数量而不是质量的限制[33]

多语言评估 : 我们可以在一些具有代表性的多语言评估指标(例如XTREME[25]和SuperGLUE[34])上查看最新模型的性能,从而更好地了解最新技术。该XTREME可以测试模型在9个任务和40种语言上的性能。从两年半前的第一个多语言预训练模型开始,多语言模型的性能稳步提高,并且正在慢慢接近基准测试上的人类水平。

0a364e4e55d365e48d2dbb03cc1110de.png

图3. 模型在 XTREME 排行榜上的表现(9 个任务和 40 种语言)

多语言模型和以英语为中心的模型 : 观察最近 NLP 中的大型语言模型,我们根据预训练中的非英语数据的比例绘制了如下图片。基于这种特征,我们可以发现有两个不同的研究流派:1)直接使用多种语言数据进行训练的多语言模型和2)主要在英语数据上训练的以英语为中心的模型。

370503a9d47a5e41a92b46a6ae6ec3a6.png

图4. 近期一些大语言模型中预训练数据中非英语数据的比例

以英语为中心的模型构成了NLP研究主流的基础,虽然这些模型越来越大,但它们并没有变得更加多语言。例如,GPT-3[35]和 PaLM[36]可以在具有大量数据的语言之间翻译文本。虽然它们已被证明能够执行多语言的few-shot学习[37][38][39],但当prompt或输入数据被翻译成英语时,模型表现最佳。在非英语语言对之间翻译或翻译成低资源的语言时,它们的表现也很差。虽然 PaLM 能够将非英语文本汇总为英语,但在生成其他语言的文本时却很困难。

近期进展

原博客对于多语言领域的研究团体,领域会议等进行了介绍,由于篇幅原因,我们先略过这部分,只介绍在数据集和模型方面的进展,感兴趣的同学可以去原博客学习。

数据集 : 在研究方面,在一些代表性比较低的语言上,出现了一系列新的数据集,它们包含了许多任务,包括文本分类[40],情感分析[41],ASR,命名实体识别[42],问答[43]和摘要[44]等等。

e51f29ca92b596e777f435ab1dd3576d.png

图5. MasakhaNER中非洲语言的命名实体注释。PER、LOC 和 DATE 实体分别为紫色、橙色和绿色(Adelani 等人,2021 年)[42]

模型 : 在多语言领域开发的新模型特别关注代表性不足的语言。有专注于非洲语言的基于文本(text-based)的语言模型,如AfriBERTa[45],AfroXLM-R[46]和KinyaBERT[47],以及印度尼西亚语言的模型,如IndoBERT[48][49]和IndoGPT[50]。对于印度语言,有IndicBERT[51]和MuRIL[52],以及语音模型,如CLSRIL[53]和IndicWav2Vec[54]。其中许多模型是先在几种相关语言上进行训练,因此能够利用迁移学习,并且比较大的多语言模型更有效。论文[55][56]中论述了最近NLP和语音中的多语言模型的进展。

-03-

挑战与机遇

挑战1:有限的数据

可以说,多语言研究面临的最大挑战是世界上大多数语言可用的数据量有限。Joshi等人[57]根据其中可用的标记和未标记数据量将世界语言分为六个不同的类别。如下图所示,世界上 88% 的语言属于资源组 0,几乎没有可用的文本数据,而 5% 的语言属于资源组 1,可用的文本数据非常有限。

702c5a5bc6cd5e32f46fb80ffb6e300e.png

图6. 世界语言的资源分布。渐变圆圈的大小表示该类中的语言数。(Joshi 等人,2020 年)[57]。

机遇1:真实世界的数据

我们如何克服世界语言资源分布的巨大差异?创建新数据的成本很高,尤其是在标注很少的语言中。出于这个原因,许多现有的多语言数据集,如XNLI[58],XQuAD[59]和XCOPA[60]都是基于已创建的英语数据集的翻译。然而,这种基于翻译的数据是有问题的。一种语言的翻译文本可以被认为是该语言的一种“方言”,称为“translationese”,它不同于这种语言本身[61]。因此基于翻译的测试集可能会高估在类似数据上训练的模型的性能,而这些模型在真实场景中的表现可能不尽人意[62]

西方概念的过度学习 :除了这些问题之外,翻译现有数据集会继承原始数据的偏差。特别是,翻译数据不同于不同语言用户自然创建的数据。由于现有的数据集大多是由西方国家的工作者或研究人员创建的,因此它们主要反映了以西方为中心的概念。例如,ImageNet[63]是ML中最具影响力的数据集之一,它基于英语WordNet。因此,它包含了一些过于针对英语、但是不存在于其他文化中的概念[64]

实用数据 :因此,根据实际使用情况提供的信息来创建数据集是十分重要的。一方面,数据应反映讲该语言的人的背景比如文化背景、语言使用背景。一方面,它还减少了研究和实际场景之间的分布偏移,并使在学术数据集、或者在金融、法律等专业领域上开发的模型性能更好。

多模态数据 :世界上许多语言更常用而不是书面语言。我们可以通过关注来自多模态数据源(如无线电广播和在线视频)的信息以及组合来自多种模态的信息来克服对文本数据的依赖(和缺乏)。最近的语音和文本模型[65][66]在语音任务(如ASR,语音翻译和文本到语音)上有了很大的进步。但是它们在纯文本任务上的表现还是很差[67]。利用多模态数据以及研究不同语言的语言特征及其在文本和语音中的相互作用有很大的潜力[68]

16560991ead1ea0fb31d9b1203b9918b.png

图7. mSLAM 中的多语言语音文本预训练模型,在未标记和标记的文本和语音数据集上联合预训练模型(Bapna 等人,2022 年)[67]。

最后,在为一些代表性不足的语言收集数据和开发模型时,人工智能面临的挑战包括数据管理、安全、隐私等等。为了应对这些挑战,需要回答以下问题:如何保证数据和技术的适当使用和所有权[69]?是否有适当的方法来检测和过滤有偏差的数据,并检测模型中的偏差?在数据收集和使用过程中如何保护隐私?如何使数据和技术开发参与[70]

挑战2:有限的计算

代表性不足的语言的应用面临的限制不仅仅是数据的缺乏,还有计算资源的匮乏。例如,GPU服务器即使在许多国家的顶尖大学中也很稀缺[4],而在使用代表性不足的语言的国家,计算的成本更高[71]

机遇2:高效性

为了更好地利用有限的计算,我们必须开发更有效的方法。有关高效Transformer架构和高效NLP方法的综述,请参阅[72][73]。由于预训练模型广泛可用,一个有前景的方向是通过参数高效方法优化这些模型,这已被证明比in-context learning更有效[74]

一种常见的方法是是使用adapter[75][76],这是插入预训练模型权重之间的小模块。这些参数高效的方法可以通过分配额外模型容量给特定的语言来提升多语言的能力。它们还能够让多语言预训练模型在预训练期间没见过的语言上有更好的表现[77][78]

4d87a11ff1344560321560f61f79efc8.png

图8.通过对每种语言的数据进行掩码语言建模 (MLM) 学习针对特定于语言的adapter,同时冻结模型的其余参数(Pfeiffer 等人,2020 年)。[79]

与对模型进行微调[80]相比,adapter已被证明可以提高模型的鲁棒性[81][82],从而提高学习效率,并且优于其他参数高效方法[83][84]

跨语言参数高效迁移学习不只有adapter,还可以采用其他形式[85],例如稀疏子网[86]。这些方法已被应用于各种领域,比如机器翻译[87][88]、ASR [89]和语音翻译[90]

挑战3 语言类型特征

与现实世界的语言分布相比,现有数据集中的语言分布严重偏斜,并且具有可用数据的语言不能代表世界上大多数语言。代表性不足的语言具有许多西方语言中不存在的语言特征比如声调,它存在于大约80%的非洲语言中。在Yorùbá中,词汇音调区分了含义,例如,在以下单词中:igbá(“葫芦”,“篮子”),igba(“200”),ìgbà(“时间”),ìgbá(“花园鸡蛋”)和igbà(“绳子”)。在阿坎语气中,语法语气区分习惯动词和状态动词,例如Ama dá ha(“Ama睡在这里”)和Ama dàha(“Ama睡在这里”)。现有的NLP模型对于语言的音调研究还较少。

机遇3 特殊化处理

对于大多数代表性不足的语言,计算和数据是有限的。因此,将一定数量的先验知识纳入我们的语言模型以使它们对这些语言更有用是合理的。

比如说在tokenize的过程中,因为面对具有丰富的词汇形态或者有数据有限的语言,不够好的tokenize方法会导致分词结果较差。我们可以修改算法以首选多种语言共享的token[91],保留token的形态结构[92],或者使tokenize的算法面对错误的分割时更鲁棒[93]

除此之外,许多代表性不足的语言属于类似语言的群体,即某一个语系。因此,专注于这些语系的模型可以更容易地共享跨语言的信息。模型可以从相关语言的迁移学习中得到有用的知识。

过去的基于掩码的一些算法对于多语言的学习有一定的效果,比如whole word masking[94]和PMI-masking[95],但考虑到语言的一些特征(如丰富的词形结构或语气),融入这些特征的预训练目标可能会使得模型能够更高效地学习。比如在基尼亚卢旺达语的KinyaBERT模型[47]中,它调整了模型的结构以融合有关语言形态的信息,使得模型在低资源但是词形丰富的吉尼亚卢旺达语上有了更优秀的翻译结果。

62cd2fb3fe2570a583cbcc08cf7d99e6.png

图9.KinyaBERT模型。添加了针对不同词形、单词内部结构的encoder,对 POS 标签、词干和词缀使用不同的嵌入

-05-

总结

虽然最近的多语言人工智能取得了巨大的进展,但仍有很多任务作要做。最重要的是,我们应该专注于创建反映语言用户真实世界情况的数据,并开发满足全球语言用户需求的语言技术。虽然人们越来越意识到这项工作很重要,但需要一个团体来为世界语言开发公平的语言技术。Masakhane(祖鲁语中的“让我们一起建设”)!

参考文献:

[1]van Esch, D., Lucassen, T., Ruder, S., Caswell, I., & Rivera, C. (2022). Writing System and Speaker Metadata for 2,800+ Language Varieties. Proceedings of LREC 2022, (June), 5035–5046. 

[2]Bender, E. M. (2011). On Achieving and Evaluating Language-Independence in NLP. Linguistic Issues in Language Technology, 6(3), 1–26. 

[3]Ruder, S., Vulić, I., & Søgaard, A. (2022). Square One Bias in NLP: Towards a Multi-Dimensional Exploration of the Research Manifold. In Findings of the Association for Computational Linguistics: ACL 2022 (pp. 2340–2354). 

[4]Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … Polosukhin, I. (2017). Attention Is All You Need. In Proceedings of NIPS 2017. 

[5]Ruder, S., Peters, M., Swayamdipta, S., & Wolf, T. (2019). Transfer learning in natural language processing. Proceedings of NAACL 2019, Tutorial Abstracts. 

[6]Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., … Houlsby, N. (2021). An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale. In Proceedings of ICLR 2021. 

[7]Neimark, D., Bar, O., Zohar, M., & Asselmann, D. (2021). Video Transformer Network. In Proceedings of the IEEE International Conference on Computer Vision (Vol. 2021-Octob, pp. 3156–3165). https://doi.org/10.1109/ICCVW54120.2021.00355 

[8]Baevski, A., Zhou, H., Mohamed, A., & Auli, M. (2020). wav2vec 2.0: A framework for self-supervised learning of speech representations. In Advances in Neural Information Processing Systems. 

[9]Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of NAACL 2019. http://arxiv.org/abs/1810.04805 

[10]Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., … Stoyanov, V. (2019). RoBERTa: A Robustly Optimized BERT Pretraining Approach. ArXiv Preprint ArXiv:1907.11692. http://arxiv.org/abs/1907.11692 

[11]Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., … Zettlemoyer, L. (2019). BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. In Proceedings of ACL 2019. 

[12]Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., … Liu, P. J. (2020). Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research, 21. http://arxiv.org/abs/1910.10683 

[13]He, P., Gao, J., & Chen, W. (2021). DeBERTaV3: Improving DeBERTa using electra-style pre-training with gradient-disentangled embedding sharing. arXiv preprint arXiv:2111.09543. 

[14]Baevski, A., Zhou, Y., Mohamed, A., & Auli, M. (2020). wav2vec 2.0: A framework for self-supervised learning of speech representations. Advances in Neural Information Processing Systems, 33, 12449-12460. 

[15]Chung, H. W., Févry, T., Tsai, H., Johnson, M., & Ruder, S. (2021). Rethinking Embedding Coupling in Pre-trained Language Models. In Proceedings of ICLR 2021. [16]Conneau, A., Khandelwal, K., Goyal, N., Chaudhary, V., Wenzek, G., Guzmán, F., … Stoyanov, V. (2020). Unsupervised Cross-lingual Representation Learning at Scale. In Proceedings of ACL 2020. http://arxiv.org/abs/1911.02116 

[17]Liu, Y., Gu, J., Goyal, N., Li, X., Edunov, S., Ghazvininejad, M., ... & Zettlemoyer, L. (2020). Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8, 726-742. 

[18]Xue, L., Constant, N., Roberts, A., Kale, M., Al-Rfou, R., Siddhant, A., … Raffel, C. (2021). mT5: A massively multilingual pre-trained text-to-text transformer. In Proceedings of NAACL 2021. http://arxiv.org/abs/2010.11934 

[19]Dufter, P., & Schütze, H. (2020). Identifying Elements Essential for BERT’s Multilinguality. In Proceedings of EMNLP 2020. 

[20]Deshpande, A., Talukdar, P., & Narasimhan, K. (2022). When is BERT Multilingual? Isolating Crucial Ingredients for Cross-lingual Transfer. In Proceedings of NAACL 2022. 

[21]Rust, P., Pfeiffer, J., Vulić, I., Ruder, S., & Gurevych, I. (2021). How Good is Your Tokenizer? On the Monolingual Performance of Multilingual Language Models. In Proceedings of ACL 2021. 

[22]Conneau, A., Baevski, A., Collobert, R., Mohamed, A., & Auli, M. (2021). Unsuperv</font>ised Cross-lingual Representation Learning for Speech Recognition. In Proceedings of Interspeech 2021. 

[23]Wang, C., Wu, Y., Qian, Y., Kumatani, K., Liu, S., Wei, F., ... & Huang, X. (2021, July). Unispeech: Unified speech representation learning with labeled and unlabeled data. In International Conference on Machine Learning (pp. 10937-10947). PMLR.   

[24]Goyal, N., Du, J., Ott, M., Anantharaman, G., & Conneau, A. (2021). Larger-Scale Transformers for Multilingual Masked Language Modeling. In Proceedings of the 6th Workshop on Representation Learning for NLP (RepL4NLP-2021).   

[25]Hu, J., Ruder, S., Siddhant, A., Neubig, G., Firat, O., & Johnson, M. (2020). XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating Cross-lingual Generalization. In Proceedings of ICML 2020.   

[26]Lauscher, A., Ravishankar, V., Vulić, I., & Glavaš, G. (2020). From Zero to Hero: On the Limitations of Zero-Shot Cross-Lingual Transfer with Multilingual Transformers. In Proceedings of EMNLP 2020. 

[27]Ahuja, K., Kumar, S., Dandapat, S., & Choudhury, M. (2022). Multi Task Learning For Zero Shot Performance Prediction of Multilingual Models. In Proceedings of ACL 2022 (pp. 5454–5467).   

[28]Muller, B., Anastasopoulos, A., Sagot, B., & Seddah, D. (2021). When Being Unseen from mBERT is just the Beginning: Handling New Languages With Multilingual Language Models. In Proceedings of NAACL 2021. 

[29]Pfeiffer, J., Vulić, I., Gurevych, I., & Ruder, S. (2021). UNKs Everywhere: Adapting Multilingual Language Models to New Scripts. In Proceedings of EMNLP 2021.   

[30]Pan, X., Zhang, B., May, J., Nothman, J., Knight, K., & Ji, H. (2017). Cross-lingual name tagging and linking for 282 languages. In Proceedings of ACL 2017 (pp. 1946–1958). https://doi.org/10.18653/v1/P17-1178   

[31]Lignos, C., Holley, N., Palen-Michel, C., & Sälevä, J. (2022). Toward More Meaningful Resources for Lower-resourced Languages. In Findings of ACL 2022 (pp. 523–532). 

[32]Kreutzer, J., Caswell, I., Wang, L., Wahab, A., Van Esch, D., Ulzii-Orshikh, N., … Adeyemi, M. (2022). Quality at a Glance: An Audit of Web-Crawled Multilingual Datasets. In Proceedings of ACL 2022 (Vol. 10, pp. 50–72). 

[33]Artetxe, M., Aldabe, I., Agerri, R., Perez-de-Viñaspre, O., & Soroa, A. (2022). Does Corpus Quality Really Matter for Low-Resource Languages? arXiv preprint arXiv:2203.08111. 

[34]Wang, A., Michael, J., Hill, F., Levy, O., & Bowman, S. R. (2019). SuperGLUE: A Stickier Benchmark for General-Purpose Language Understanding Systems. In Proceedings of NeurIPS 2019. 

[35]Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., … Amodei, D. (2020). Language models are few-shot learners. In Proceedings of NeurIPS 2020. 

[36]Chowdhery, A., Narang, S., Devlin, J., Bosma, M., Mishra, G., Roberts, A., … Fiedel, N. (2022). PaLM: Scaling Language Modeling with Pathways. 

[37]Winata, G. I., Madotto, A., Lin, Z., Liu, R., Yosinski, J., & Fung, P. (2021). Language Models are Few-shot Multilingual Learners. In Proceedings ofthe 1st Workshop on Multilingual Representation Learning. 

[38]Lin, X. V., Mihaylov, T., Artetxe, M., Wang, T., Chen, S., Simig, D., … Li, X. (2022). Few-shot Learning with Multilingual Language Models. In Proceedings of EMNLP 2022. 

[39]Shi, F., Suzgun, M., Freitag, M., Wang, X., Srivats, S., Vosoughi, S., ... & Wei, J. (2022). Language models are multilingual chain-of-thought reasoners. arXiv preprint arXiv:2210.03057. 

[40]Niyongabo, R. A., Qu, H., Kreutzer, J., & Huang, L. (2020). KinNews and KirNews: Benchmarking Cross-Lingual Text Classification for Kinyarwanda and Kirundi. In Proceedings of COLING 2020 (pp. 5507–5521). 

[41]Muhammad, S. H., Adelani, D. I., Ruder, S., Ahmad, I. S., Abdulmumin, I., Bello, B. S., … Brazdil, P. (2022). NaijaSenti: A Nigerian Twitter Sentiment Corpus for Multilingual Sentiment Analysis. In Proceedings of LREC 2022 (pp. 590–602). 

[42]Adelani, D. I., Abbott, J., Neubig, G., Daniel, D., Kreutzer, J., Lignos, C., … Ogueji, K. (2021). MasakhaNER: Named Entity Recognition for African Languages. Transactions of the ACL 2021. 

[43]Wanjawa, B., Wanzare, L., Indede, F., McOnyango, O., Muchemi, L., & Ombui, E. (2022). KenSwQuAD--A Question Answering Dataset for Swahili Low Resource Language. arXiv preprint arXiv:2205.02364. 

[44]MBONU, C. E., Chukwuneke, C. I., Paul, R. U., Ezeani, I., & Onyenwe, I. (2022, March). IgboSum1500-Introducing the Igbo Text Summarization Dataset. In 3rd Workshop on African Natural Language Processing. 

[45]Ogueji, K., Zhu, Y., & Lin, J. (2021). Small Data? No Problem! Exploring the Viability of Pretrained Multilingual Language Models for Low-Resource Languages. In Proceedings of Multilingual Representation Learning Workshop 2021. 

[46]Alabi, J. O., Adelani, D. I., Mosbach, M., & Klakow, D. (2022). Multilingual Language Model Adaptive Fine-Tuning: A Study on African Languages. In Proceedings of COLING 2022. http://arxiv.org/abs/2204.06487 

[47]Nzeyimana, A., & Rubungo, A. N. (2022). KinyaBERT: a Morphology-aware Kinyarwanda Language Model. In Proceedings of ACL 2022. 

[48]Wilie, B., Vincentio, K., Winata, G. I., Cahyawijaya, S., Li, X., Lim, Z. Y., … Purwarianti, A. (2020). IndoNLU: Benchmark and Resources for Evaluating Indonesian Natural Language Understanding. In Proceedings of AACL-IJCNLP 2020. 

[49]Koto, F., Rahimi, A., Lau, J. H., & Baldwin, T. (2020). IndoLEM and IndoBERT: A Benchmark Dataset and Pre-trained Language Model for Indonesian NLP. In Proceedings of COLING 2020 (pp. 757–770). 

[50]Cahyawijaya, S., Winata, G. I., Wilie, B., Vincentio, K., Li, X., Kuncoro, A., … Fung, P. (2021). IndoNLG: Benchmark and Resources for Evaluating Indonesian Natural Language Generation. In Proceedings of EMNLP 2021 (pp. 8875–8898). 

[51]Kakwani, D., Kunchukuttan, A., Golla, S., Gokul, N. C., Bhattacharyya, A., Khapra, M. M., & Kumar, P. (2020). IndicNLPSuite: Monolingual corpora, evaluation benchmarks and pre-trained multilingual language models for Indian languages. In Findings of the Association for Computational Linguistics: EMNLP 2020 (pp. 4948-4961). 

[52]Khanuja, S., Bansal, D., Mehtani, S., Khosla, S., Dey, A., Gopalan, B., ... & Talukdar, P. (2021). MuRIL: Multilingual representations for indian languages. arXiv preprint arXiv:2103.10730. 

[53]Gupta, A., Chadha, H. S., Shah, P., Chhimwal, N., Dhuriya, A., Gaur, R., & Raghavan, V. (2021). CLSRIL-23: Cross lingual speech representations for indic languages. arXiv preprint arXiv:2107.07402. 

[54]Javed, T., Doddapaneni, S., Raman, A., Bhogale, K. S., Ramesh, G., Kunchukuttan, A., ... & Khapra, M. M. (2022, June). Towards building ASR systems for the next billion users. In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 36, No. 10, pp. 10813-10821). 

[55]Doddapaneni, S., Ramesh, G., Kunchukuttan, A., Kumar, P., & Khapra, M. M. (2021). A primer on pretrained multilingual language models. arXiv preprint arXiv:2107.00676. 

[56]Yadav, H., & Sitaram, S. (2022). A Survey of Multilingual Models for Automatic Speech Recognition. In Proceedings of LREC 2022. 

[57]Joshi, P., Santy, S., Budhiraja, A., Bali, K., & Choudhury, M. (2020). The State and Fate of Linguistic Diversity and Inclusion in the NLP World. In Proceedings of ACL 2020. 

[58]Conneau, A., Lample, G., Rinott, R., Williams, A., Bowman, S. R., Schwenk, H., & Stoyanov, V. (2018). XNLI: Evaluating Cross-lingual Sentence Representations. In Proceedings of EMNLP 2018. 

[59]Artetxe, M., Ruder, S., & Yogatama, D. (2020). On the Cross-lingual Transferability of Monolingual Representations. In Proceedings of ACL 2020. 

[60]Ponti, E. M., Glavaš, G., Majewska, O., Liu, Q., Vulić, I., & Korhonen, A. (2020). XCOPA: A Multilingual Dataset for Causal Commonsense Reasoning. In Proceedings of EMNLP 2020. 

[61]Volansky, V., Ordan, N., & Wintner, S. (2015). On the features of translationese. Digital Scholarship in the Humanities, 30(1), 98-118. 

[62]Artetxe, M., Labaka, G., & Agirre, E. (2020). Translation Artifacts in Cross-lingual Transfer Learning. In Proceedings of EMNLP 2020. 

[63]Russakovsky, O., Deng, J., Su, H., Krause, J., Satheesh, S., Ma, S., … & Fei-Fei, L. (2015). Imagenet large scale visual recognition challenge. International journal of computer vision, 115(3), 211-252. 

[64]Liu, F., Bugliarello, E., Ponti, E. M., Reddy, S., Collier, N., & Elliott, D. (2021). Visually Grounded Reasoning across Languages and Cultures. In Proceedings of EMNLP 2021. 

[65]Chen, Z., Zhang, Y., Rosenberg, A., Ramabhadran, B., Moreno, P. J., Bapna, A., & Zen, H. (2022). MAESTRO: Matched Speech Text Representations through Modality Matching. In Proceedings of Interspeech 2022. 

[66]Saeki, T., Zen, H., Chen, Z., Morioka, N., Wang, G., Zhang, Y., … Ramabhadran, B. (2022). Virtuoso: Massive Multilingual Speech-Text Joint Semi-Supervised Learning for Text-To-Speech. arXiv preprint arXiv:2210.15447. 

[67]Bapna, A., Cherry, C., Zhang, Y., Jia, Y., Johnson, M., Cheng, Y., ... & Conneau, A. (2022). mSLAM: Massively multilingual joint pre-training for speech and text. arXiv preprint arXiv:2202.01374. 

[68]Adebara, I., & Abdul-Mageed, M. (2022). Towards Afrocentric NLP for African Languages: Where We Are and Where We Can Go. In Proceedings of ACL 2022. 

[69]Abebe, R., Aruleba, K., Birhane, A., Kingsley, S., Obaido, G., Remy, S. L., & Sadagopan, S. (2021). Narratives and Counternarratives on Data Sharing in Africa. In Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery. 

[70]Birhane, A., Isaac, W., Prabhakaran, V., Díaz, M., Elish, M. C., Gabriel, I., & Mohamed, S. (2022). Power to the People? Opportunities and Challenges for Participatory AI. Equity and Access in Algorithms, Mechanisms, and Optimization. 

[71]Ahia, O., Kreutzer, J., & Hooker, S. (2021). The Low-Resource Double Bind: An Empirical Study of Pruning for Low-Resource Machine Translation. In Findings of EMNLP 2021. 

[72]Tay, Y., Dehghani, M., Bahri, D., & Metzler, D. (2020). Efficient transformers: A survey. ACM Computing Surveys (CSUR). 

[73]Treviso, M., Ji, T., Lee, J. U., van Aken, B., Cao, Q., Ciosici, M. R., ... & Schwartz, R. (2022). Efficient Methods for Natural Language Processing: A Survey. arXiv preprint arXiv:2209.00099. 

[74]Liu, H., Tam, D., Muqeeth, M., Mohta, J., Huang, T., Bansal, M., & Raffel, C. (2022). Few-shot parameter-efficient fine-tuning is better and cheaper than in-context learning. arXiv preprint arXiv:2205.05638. 

[75]Rebuffi, S. A., Bilen, H., & Vedaldi, A. (2017). Learning multiple visual domains with residual adapters. Advances in Neural Information Processing Systems, 30. 

[76]Houlsby, N., Giurgiu, A., Jastrzebski, S., Morrone, B., De Laroussilhe, Q., Gesmundo, A., ... & Gelly, S. (2019, May). Parameter-efficient transfer learning for NLP. In International Conference on Machine Learning (pp. 2790-2799). PMLR. 

[77]Pfeiffer, J., Vulić, I., Gurevych, I., & Ruder, S. (2021). UNKs Everywhere: Adapting Multilingual Language Models to New Scripts. In Proceedings of EMNLP 2021. 

[78]Pfeiffer, J., Goyal, N., Lin, X. V., Li, X., Cross, J., Riedel, S., & Artetxe, M. (2022). Lifting the Curse of Multilinguality with Modular Transformers. In Proceedings of NAACL 2022. 

[79]Pfeiffer, J., Vulić, I., Gurevych, I., & Ruder, S. (2020). MAD-X: An Adapter-based Framework for Multi-task Cross-lingual Transfer. In Proceedings of EMNLP 2020. 

[80]Mahabadi, R. K., Ruder, S., Dehghani, M., & Henderson, J. (2021). Parameter-efficient Multi-task Fine-tuning for Transformers via Shared Hypernetworks. In Proceedings of ACL 2021.

[81]He, R., Liu, L., Ye, H., Tan, Q., Ding, B., Cheng, L., … Si, L. (2021). On the Effectiveness of Adapter-based Tuning for Pretrained Language Model Adaptation. In Proceedings of ACL 2021. 

[82]Han, W., Pang, B., & Wu, Y. (2021). Robust Transfer Learning with Pretrained Language Models through Adapters. In Proceedings of ACL 2021. 

[83]Mahabadi, R. K., Henderson, J., & Ruder, S. (2021). Compacter: Efficient Low-Rank Hypercomplex Adapter Layers. In Proceedings of NeurIPS 2021. 

[84]Mahabadi, R. K., Zettlemoyer, L., Henderson, J., Saeidi, M., Mathias, L., Stoyanov, V., & Yazdani, M. (2022). PERFECT: Prompt-free and Efficient Few-shot Learning with Language Models. In Proceedings of ACL 2022. 

[85]He, J., Zhou, C., Ma, X., Berg-Kirkpatrick, T., & Neubig, G. (2022). Towards a Unified View of Parameter-Efficient Transfer Learning. Proceedings of ICLR 2022. 

[86]Ansell, A., Ponti, E. M., Korhonen, A., & Vulić, I. (2022). Composable Sparse Fine-Tuning for Cross-Lingual Transfer. In Proceedings of ACL 2022. 

[87]Bapna, A., & Firat, O. (2019). Simple, Scalable Adaptation for Neural Machine Translation. In Proceedings of EMNLP 2019. 

[88]Üstün, A., Bérard, A., Besacier, L., & Gallé, M. (2021). Multilingual Unsupervised Neural Machine Translation with Denoising Adapters. In Proceedings of EMNLP 2021. 

[89]Lu, Y., Huang, M., Qu, X., Wei, P., & Ma, Z. (2022, May). Language adaptive cross-lingual speech representation learning with sparse sharing sub-networks. In ICASSP 2022-2022 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). 

[90]Le, H., Pino, J., Wang, C., Gu, J., Schwab, D., & Besacier, L. (2021). Lightweight Adapter Tuning for Multilingual Speech Translation. In Proceedings of ACL 2021. 

[91]Patil, V., Talukdar, P., & Sarawagi, S. (2022). Overlap-based Vocabulary Generation Improves Cross-lingual Transfer Among Related Languages. In Proceedings of ACL 2022. 

[92]Hofmann, V., Schütze, H., & Pierrehumbert, J. B. (2022). An Embarrassingly Simple Method to Mitigate Undesirable Properties of Pretrained Language Model Tokenizers. In Proceedings of ACL 2022. 

[93]Wang, X., Ruder, S., & Neubig, G. (2021). Multi-view Subword Regularization. In Proceedings of NAACL 2021. 

[94]Cui, Y., Che, W., Liu, T., Qin, B., & Yang, Z. (2021). Pre-training with whole word masking for chinese bert. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 29, 3504-3514. 

[95]Levine, Y., Leyton-brown, K., Labs, A. I., & Aviv, T. (2021). PMI-Masking: Principled Masking of Correlated Spans. In Proceedings of ICLR 2021. 

进NLP群—>加入NLP交流群(备注nips/emnlp/nlpcc进入对应投稿群)

加入星球,你将获得:

1. 每日更新3-5篇论文速读

2. 最新入门和进阶学习资料

3. 每日1-3个AI岗位招聘信息

656534648b954c7ed4c7e85e3ad9668d.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值