Quantifying Multilingual Performance of Large Language Models Across Languages

本文是LLM系列文章,针对《Quantifying Multilingual Performance of Large Language Models
Across Languages》的翻译。

摘要

大型语言模型(LLMs)的开发依赖于广泛的文本语料库,这些语料库在语言之间往往分布不均。这种不平衡导致LLM在英语、德语和法语等高资源语言上的表现明显更好,而在低资源语言方面的能力仍然不足。目前,缺乏定量方法来评估LLM在这些低资源语言中的性能。为了解决这一差距,我们提出了语言排名器,这是一种内在指标,旨在使用内部表示根据LLM性能对语言进行基准测试和排名。通过将LLM对各种语言的内部表示与来自英语的基线进行比较,我们可以以稳健和语言无关的方式评估模型的多语言能力。我们的分析表明,高资源语言与英语的相似性得分较高,表现出优异的表现,而低资源语言的相似性分数较低,突显了我们在评估语言特定能力方面的有效性。此外,实验表明,LLM在不同语言中的表现与其预训练语料库中这些语言的比例之间存在很强的相关性。这些见解强调了语言排名器作为评估不同语言(尤其是资源有限的语言)LLM表现的工具的有效性。

1 引言

2 提出的方法

3 实验

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值