本文是LLM系列文章,针对《Locating and Mitigating Gender Bias in Large Language Models》的翻译。
大型语言模型中性别偏见的定位与缓解
摘要
大型语言模型(LLM)在广泛的语料库上进行预训练,以学习包含人类偏好的事实和人类认知。然而,这一过程可能会无意中导致这些模型获得社会中普遍存在的偏见和刻板印象。先前的研究通常通过一维视角来解决偏见问题,集中精力定位或减轻偏见。这种有限的视角阻碍了对偏见的研究相互补充和逐步发展。在这项研究中,我们将定位和减轻偏见的过程整合在一个统一的框架内。最初,我们使用因果中介分析来追踪大型语言模型中不同成分激活的因果效应。在此基础上,我们提出了LSDM(最小二乘Debias方法),这是一种基于知识编辑的方法,用于减轻职业代词中的性别偏见,并将其与三个性别偏见数据集和七个知识能力测试数据集上的两个基线进行了比较。实验结果表明,造成性别偏见的主要因素是作用于职业代词最后一个表征的最底层MLP模块和作用于句子最后一个词的最高层注意力模块。此外,LSDM比其他基线更有效地缓解了模型中的性别偏见,同时充分保留了模型在所有其他方面的能力。