自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 论文笔记——Fast Machine Unlearning without Retraining through Selective Synaptic Dampening

机器学习模型的遗忘能力,对于遵守数据隐私法规以及删除有害、纵或过时的信息变得越来越重要。关键的挑战在于忘记特定信息,同时保护剩余数据的模型性能。虽然当前的 state-of-theart 方法表现良好,但它们通常需要对保留的数据进行一定程度的重新训练,以保护或恢复模型性能。这增加了计算开销,并要求训练数据保持可用和可访问性,这可能不可行。相比之下,其他方法采用无再训练范式,但是,这些方法的计算成本高得令人望而却步,并且性能无法与基于再训练的对应方法相提并论。我们提出了选择性突触阻尼 (SSD)

2024-04-12 21:25:13 790

原创 论文阅读——RRL: Recommendation Reverse Learning

随着社会对数据隐私的日益关注,法规要求必须从数据库和ML模型中移除有关用户的隐私信息,这更通俗地称为"被遗忘权"。这些拥有大量隐私数据的推荐系统的隐私问题正受到越来越多的关注。最近的研究建议将偏好数据划分为多个分片并使用这些分片训练子模型,通过重新训练已标记分片的子模型来遗忘用户的个人偏好数据。尽管与从头开始重新训练相比计算效率有所发展,但由于训练数据中包含的协同信息被打破,划分分片后整体推荐性能变差。在本文中,我们旨在为推荐模型提出一种既不分离训练数据又不危及推荐性能的遗忘框架,命名为。

2024-04-10 22:04:46 786

原创 论文笔记——Post-Training Attribute Unlearning in Recommender Systems

摘要:随着推荐系统中隐私问题的日益凸显,推荐忘却学习受到越来越多的关注。现有的研究主要使用训练数据,即模型输入,作为忘却学习的目标。然而,攻击者即使在训练过程中没有明确遇到,也可以从模型中提取私有信息。我们将这种看不见的信息命名为属性,并将其作为忘却学习目标。为了保护用户的敏感属性,Attribute忘却学习( AU )旨在使目标属性不可区分。在本文中,我们关注一种严格但实用的AU设置,即训练后属性忘却学习( Post-training Attribute Unlearning。

2024-04-07 10:33:00 545 1

原创 论文笔记——Towards Efficient and Effective Unlearning of Large Language Models for Recommendation

大型语言模型( Large Language Models,LLMs )的显著进步催生了一个很有前景的研究方向,即利用LLMs作为推荐器( LLMs as Recommenders,LLMRec )。LLMRec的功效源于LLMs所固有的开放世界知识和推理能力。LLMRec基于用户交互数据,通过指令调优获得推荐能力。然而,为了保护用户隐私和优化效用,LLMRec有意遗忘特定的用户数据也是至关重要的,这通常被称为推荐Unlearning。

2024-03-30 10:23:32 837

原创 论文笔记——UltraRE: Enhancing RecEraser for Recommendation Unlearning via Error Decomposition

随着人们对机器学习模型中隐私问题的日益关注,法规在强制企业开发非歧视机器学习系统的同时,也致力于授予个人被遗忘的权利,从而为机器Unlearning问题的研究推波助澜。我们的注意力集中在一个实际的Unlearning场景,即推荐Unlearning。由于目前最先进的框架RecEraser自然地实现了完全的Unlearning完备性,我们的目标是在模型效用和Unlearning效率方面提高它。在本文中,我们从基于系综的角度重新思考RecEraser,并关注它的三个潜在损失,即冗余、相关性和组合。

2024-03-29 20:55:38 902

原创 论文阅读——Making recommender systems forget: Learning and unlearning for erasable recommendation

模型LASER属于精确Unlearning摘要:现在的法规要求数据驱动的系统,例如推荐系统,允许用户删除个人隐私数据。这促使机器学习模型中的关键数据不学习,从而使未被充分研究的机器Unlearning问题变得更加突出。尽管机器学习模型在现代推荐系统中得到了广泛的应用,但在这种背景下的Unlearning却缺乏关注。现有的Unlearning方法在保存跨用户和跨项目的协同信息方面存在不足。为了弥补这个缺陷,我们提出了LASER:一个模型不可知的可擦除推荐框架。

2024-03-26 21:42:08 899

原创 论文笔记——Learn to Unlearn: Insights Into Machine Unlearning

这些攻击包括白盒和灰盒攻击,不同的扰动几何和限制,攻击者目标的优化与计算时间的协调,以及在更长的时间内维持攻击的可行性。它通过以对抗的方式训练指定删除的数据来实现,即通过最大化而不是最小化损失来实现,这在传统的ML场景中是典型的。通过DeltaGrad的应用,在给定一定的数据删除比例( 1 % ,正如DeltaGrad出版物中建议的那样)的约束条件下,模型的性能可以得到很好的持续。使用 non-i.i.d.数据,尤其是在忘却学习期间,由于已删除数据的分布不均匀,模型的权重可能会振荡或发散。

2024-03-22 20:43:10 951 1

原创 论文笔记——On the Effectiveness of Unlearning in Session-Based Recommendation

基于会话的推荐从会话中的先前交互中预测用户的未来兴趣。尽管存在对历史样本的记忆,但由于用户隐私或模型保真度等原因,也会出现unlearning的要求,即去除某些训练样本的影响。然而,现有的关于忘记学习的研究并没有针对基于会话的推荐。一方面,由于unlearning项与会话中剩余项之间存在协同相关性和顺序连接,这些方法无法取得令人满意的unlearning效果。另一方面,很少有工作在基于会话的推荐场景中进行验证unlearning有效性的研究。在本文中,我们提出了一种基于会话的推荐unlearning。

2024-03-20 17:17:12 906

原创 论文笔记——Model Sparsity Can Simplify Machine Unlearning

微调的目标是在较小的目标数据集上,通过有限的训练数据,使模型更好地适应特定任务,从而提高模型在该任务上的性能。尽管可以通过使用剩余的数据集进行完整的模型再训练来实现精确的去学习,但相关的计算成本推动了高效的近似去学习技术的发展。θo , Dr)表示模型参数θ的unlearning目标函数,给定预训练状态θo,其余训练数据集Dr受稀疏诱导优化的启发,我们将基于l1范数的稀疏惩罚集成到Lu中。例如,高"有效性"的(保护被清洗数据隐私的能力)既不意味着也不排除高"保真性"的(在剩余数据集上的准确率)。

2024-03-19 17:00:13 592

原创 论文笔记——Towards Unbounded Machine Unlearning

它是唯一一个在RB、RC和UP的不同根据应用的指标上始终如一地忘记质量的顶级表演者的方法。现在,对于每个"目标示例",允许攻击者估计不同的高斯对的这种设置,该目标示例在被遗忘的模型下的(置信度)分布,与在未被看到的模型下的(置信度)分布之前一样。然而,忘记任务的概念与忘记训练实例的概念是不同的:在没有从模型权重中移除特定实例的影响的情况下,任务的性能会降低。据我们所知,本文是第一个针对不同应用( RB、RC、UP)的忘记研究,其观点是每个应用都有自己的需求,"忘记"的定义以及相关的忘记质量度量。

2024-03-18 21:09:40 202

原创 论文笔记——Learn to Unlearn for Deep Neural Networks

与Unlearning相比,DP更严格,因为它限制了记忆,并寻求以防止检索任何与任何训练样本相关的任何信息的方式来学习模型参数,同时仍然实现了合理的性能。,这使得我们可以在给定遗忘数据集的情况下,高效地计算保留数据的基向量和特征值.重要的是,我们的方法不需要训练数据;这意味着该方法应该能够。5、在大规模模型和数据集上的实验结果表明,unlearning方法可以在不同的度量标准下产生与从零开始重新训练的模型表现相似的模型。因此,对于保留的数据集,unlearning的模型和原始模型的输出几乎相同。

2024-03-17 20:14:54 440 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除