本文是LLM系列文章,针对《PRIVACY ISSUES IN LARGE LANGUAGE MODELS: A SURVEY》的翻译。
大型语言模型中的隐私问题:综述
摘要
这是对人工智能研究活跃领域的首次调查,重点关注大型语言模型(LLM)中的隐私问题。具体而言,我们专注于红队建模的工作,以突出隐私风险,试图将隐私纳入训练或推理过程,使经过训练的模型能够有效删除数据,以符合现有的隐私法规,并试图缓解版权问题。我们的重点是总结开发算法、证明定理和进行实证评估的技术研究。虽然有大量的法律和政策工作从不同的角度应对这些挑战,但这并不是我们调查的重点。尽管如此,这些工作以及最近的法律发展确实为这些技术问题的形式化提供了信息,因此我们在第1节中简要讨论了这些问题。虽然我们已经尽了最大努力将所有相关工作包括在内,但由于这项研究的快速性,我们可能错过了最近的一些工作。如果我们错过了您的一些工作,请与我们联系,因为我们将努力使此调查保持相对最新。我们正在维护一个公开可用的存储库,其中包含本调查中涵盖的论文列表以及公开的任何相关代码.