ROME : Memorization Insights from Text, Probability and Hidden State in Large Language Models

本文介绍了一种新方法ROME,用于在不访问训练数据的情况下研究大型语言模型的记忆。通过对记忆组和非记忆组的文本、概率和隐藏状态进行比较,揭示了单词长度、词性、词频等因素对模型记忆的影响。该方法为理解LLM的记忆提供了新的视角,但其解释性和全面性仍有待进一步研究。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《ROME : Memorization Insights from Text, Probability and Hidden State in Large Language Models》的翻译。

ROME:从文本、概率和大语言模型中的隐藏状态看记忆

摘要

探究大型语言模型的记忆具有重要意义。先前的工作已经建立了量化记忆的指标,探索了各种影响因素,如数据重复、模型大小和提示长度,并通过将模型输出与训练语料库进行比较来评估记忆。然而,训练语料库规模庞大,预处理耗时。为了在不访问训练数据的情况下探索记忆,我们提出了一种新的方法,称为ROME,其中通过比较记忆和非记忆的差异来探索记忆。具体来说,模型首先将所选样本分为记忆组和非记忆组,然后从文本、概率和隐藏状态的角度对两组样本的演示进行比较。实验结果表明,单词长度、词性、词频、均值和方差等因素存在差异。

1 引言

2 相关工作

3 方法

4 实验分析

5 结论

我们提出了ROME来探索LLM的记忆,重点是通过构建记忆组和非记忆组进行比较分析,而不是直接访问训练数据。它利用IDIMIM和CelebrityParent数据集,检查文本、概率和隐藏状态,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值