秘密共享者:神经网络中无意识记忆的评价与测试

本文探讨了深度神经网络在训练过程中可能无意识记忆敏感信息,导致隐私泄露的问题。作者提出了一个量化曝光值的度量方法,用于评估和测试这种记忆现象。通过在不同模型(如SmartCompose、WikiText-103等)中插入特高频噪声,研究发现记忆会随训练加深,且存在过度训练的情况。文章还介绍了一种提取算法来检验模型的记忆准确性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本周粗略阅读了论文《The Secret Sharer: Evaluating and Testing Unintended Memorization in Neural Networks》,并参考了陈老师实验室发布的翻译,记录个人的阅读笔记,侵删。

本文主要内容总结:

深度神经网络模型的无意识记忆带来了隐私泄露的风险。因此,本文提出了一种定量评估该风险的方法,使深度学习从业者能够选择训练方法,以最大限度地减少记忆,从而有利于隐私保护。

论文重点内容:

研究原因:

在生成文本模型中,如果对敏感数据进行训练,可能会出现秘密泄露(即模型输入某些文本前缀可能会输出泄露隐私的补全文本)。

本文贡献:

引入了一个量化的曝光值度量——一个直接量化模型在无意识的情况下记忆训练数据的程度指标。该度量可以作为测试方法的一部分在训练中应用,并且已经被应用于构建谷歌的 Smart Compose 的回归测试。

其中,需要明确神经网络无意识记忆的概念:训练好的神经网络可能揭示出分布不均的训练数据的存在(训练数据与学习任务无关,对提高模型精读没有帮助)。这些训练数据称为秘密数据。

本文测试方法:

人工创建秘密数据,将它们作为特高频噪声插入到训练数据中,并使用曝光度作为度量,评估它们在训练模型中的暴露程度。

在推导曝光度定义的过程中,作者明确了对数复杂度、特高频噪声的等级、猜测熵等概念,并指出了近似曝光指标的方法:抽样近似、分布模型近似。

在实验评价中,作者分别讨论了Smart Compose、WikiText-103(词级语言模型)、字符级语言模型、NMT(神经网络翻译模型)几种模型插入特高频噪声的记忆程度,并总结出无意识记忆特征:记忆伴随训练不断加固,并且也有过度训练(即使再训练曝光值也不会增加)。

最后,作者使用最短路径搜索,设计了一种提取算法来研究曝光量在测试记忆方面的准确程度。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

海苔小饼干

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值