PipAttack: Poisoning Federated Recommender Systems for Manipulating Item Promotion(2022 WSDM)

PipAttack: Poisoning Federated Recommender Systems for Manipulating Item Promotion–《通过操纵物体推广攻击联邦推荐系统》

核心思想:

  1. 利用数据驱动型推荐系统中普遍存在的热门偏差;
  2. 攻击模型使目标项目在嵌入空间中具有热门商品的特征;
  3. 通过少数恶意用户精心制作上传的梯度,增加目标(不受欢迎)项目在联邦推荐系统中的曝光率。

对推荐系统的投毒攻击的原因是曝光产生的经济效益。

原先的投毒攻击主要是数据投毒,但联邦推荐系统数据保存是分布式的。
普通推荐系统→去中心化→联邦推荐系统

联邦学习:
在这里插入图片描述

攻击方法: 对模型投毒,操纵恶意用户提交的局部模型梯度。

贡献:

  1. 发现去中心化的联邦推荐系统存在安全隐患;
  2. 根据热门偏差利用恶意用户上传中毒的本地梯度攻击联邦推荐系统;
  3. 成本效益更高,需要更少的模型更新和恶意用户。

联邦推荐系统:

在这里插入图片描述
在这里插入图片描述

中毒攻击:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

模型损失函数:

  1. 提高目标项目的排名分数;

  2. 热门混淆:将目标项目与嵌入空间中的热门项目对齐来混淆联邦推荐;在这里插入图片描述

  3. 距离约束:避免损害联邦推荐器的可用性和被检测到攻击,距离约束可以防止恶意用户上传的操纵梯度偏离原始梯度太远。
    在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
对比学习是一种无监督学习方法,可以通过比较不同样本之间的相似性来学习有用的特征表示。然而,当对比学习面临中毒和后门问题时,其可靠性和安全性可能受到威胁。 中毒问题是指攻击者有意干扰对比学习过程,通过操纵训练数据,向模型注入有害样本或扰乱样本分布,从而导致模型学到错误的特征表示。攻击者可能会做出一些更改,使得恶意样本被错误地分类为正常样本,从而影响模型的性能和准确性。对于对比学习而言,中毒问题可能导致模型受到严重破坏,无法提供有用的特征表示。 后门问题是指攻击者利用对比学习模型的弱点,在模型中插入恶意后门,从而在特定条件下触发模型的恶意行为。后门可以是一些隐藏的规则、特定输入模式或触发事件,只有在满足这些条件时,模型才会展现出恶意行为。对于对比学习而言,后门问题可能会导致模型不可靠,攻击者可以通过触发后门来操纵模型的预测结果,造成严重的安全隐患。 为了解决中毒和后门问题,一些防御机制已经被提出。例如,数据审核和清洗可以用于检测和过滤中毒样本,以确保模型被训练在干净和合理的数据上。而对于后门问题,模型的验证和测试阶段需要对模型进行全面检查,以查找是否存在后门。此外,对比学习模型的设计需要考虑到对抗示例和恶意样本的鲁棒性,以提高模型的安全性。 总而言之,中毒和后门是对比学习中的两个关键问题,它们可能会对模型的可靠性和安全性造成威胁。通过合适的防御机制和模型设计,可以有效地应对这些问题,并提高对比学习的实用性和安全性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值