论文地址:https://aclanthology.org/2024.acl-long.778.pdfhttps://aclanthology.org/2024.acl-long.778.pdf
1. 概述
随着**大规模语言模型(LLMs)**的广泛应用,它们在自然语言处理(NLP)任务中的表现取得了显著进展。这些模型通过大规模的无监督预训练过程,能够有效地理解语言结构和进行复杂的推理任务。然而,生成式预训练过程不仅让模型学习到语言的深层结构,也使其不可避免地从数据集本身吸收并继承了数据中的偏见。例如,位置偏见(即