Machine Unlearning of Pre-trained Large Language Models

515 篇文章 3 订阅

已下架不支持订阅

7 篇文章 0 订阅
该研究聚焦于预训练大型语言模型(LLM)的‘被遗忘权’,提出机器遗忘的框架,并分析七种遗忘方法。实验显示,这些方法在计算效率上远超再训练,并揭示了结合梯度上升与下降能提升超参数稳定性。该文强调了负责任的AI开发,并为LLM的机器遗忘提供见解。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《Machine Unlearning of Pre-trained Large Language Models》的翻译。

预训练的大型语言模型的机器遗忘

摘要

本研究在大型语言模型(LLM)的背景下探讨了“被遗忘权”的概念。我们探索将机器遗忘作为一种关键解决方案,重点关注预训练的模型——这是一个研究不足的领域。我们的研究为预训练LLM中的机器遗忘描绘了一个全面的框架,包括对七种不同的遗忘方法的批判性分析。通过使用arXiv、books和GitHub中精心策划的数据集进行严格评估,我们建立了一个强大的遗忘性能基准,证明这些方法的计算效率是再训练的105倍以上。我们的结果表明,在分布数据上将梯度上升与梯度下降相结合可以提高超参数的稳健性。我们还为遗忘过程中的有效超参数调整提供了详细的指导方针。我们的研究结果推动了关于人工智能伦理实践的讨论,为预训练LLM的机器遗忘机制提供了实质性的见解,并强调了负责任的人工智能开发的潜力。

1 引言

2 问题公式

3 遗忘方法

4 实验

5 相关工作

6 结论

在本文中,我们研究了从LLM中删除受版权保护的预训练数据的挑战。我们提出了一个统一的遗忘LL

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值