本文是LLM系列文章,针对《Gender Bias in Large Language Models across Multiple Languages》的翻译。
摘要
随着大型语言模型(LLM)在各种应用程序中的部署越来越多,评估LLM中嵌入的性别偏见的影响变得至关重要。自然语言处理领域中的性别偏见问题已经引起了相当大的关注,尤其是在英语领域。尽管如此,对英语以外语言中的性别偏见的调查仍然相对不足,分析不足。在这项工作中,我们研究了LLM生成的不同语言输出中的性别偏见。我们使用了三种测量方法:1)在与性别相关的背景下,在选择描述性词语时存在性别偏见。2) 在给定描述性词语的情况下,选择与性别相关的代词(she/he)时存在性别偏见。3) LLM生成的对话主题中的性别偏见。我们使用三种测量方法研究了各种语言的GPT系列LLM的输出。我们的研究结果显示,在我们研究的所有语言中都存在显著的性别偏见。
1 引言
2 相关工作
3 方法
4 实验
5 结论与讨论
总之,通过利用不同LLM并对其进行实验,我们调查了多种语言中的性别偏