隐私保护
文章平均质量分 82
联邦学习中的隐私保护
小白菜董夏
这个作者很懒,什么都没留下…
展开
-
Comprehensive Privacy Analysis of Deep Learning
Comprehensive Privacy Analysis of Deep Learning(针对深度学习的白盒成员推理攻击)1. Abstract 设计白盒推理攻击对深度学习模型进行全面的隐私分析;通过完全训练好的模型的参数和模型训练过程中的参数更新来评估隐私泄露程度;针对主动和被动推理攻击,设计了集成学习和联邦学习的推理算法,并假设不同的对手的先验知识。 研究表明直接将黑盒攻击直接扩展到白盒设置是无效的,作者利用SGD随机梯度下降算法的隐私漏洞设计了新的算法来训练神经网络,良好的广义原创 2021-05-09 15:39:42 · 551 阅读 · 2 评论 -
MemGuard: Defending against Black-Box Membership Inference Attacks via Adversarial Examples
MemGuard: Defending against Black-Box Membership Inference Attacks via Adversarial Examples(通过对抗样本来防御黑盒的成员推理攻击)CCS 20191. Abstract 本成果主要是一个对于查询样本的预测向量的优化问题,通过噪声可以达到不改变查询样本的预测标签且对预测向量的改变有限的目的,通过一定的框架来达到优化的目的。 成员身份推理攻击的定义:攻击者的目的是推断一个数据样本是否在目标分类器的训练数据原创 2021-03-25 23:13:01 · 1236 阅读 · 1 评论 -
ML-Leaks: Model and Data Independent Membership Inference Attacks and Defenses on Machine Learning M
ML-Leaks: Model and Data Independent Membership Inference Attacks and Defenses on Machine Learning ModelsAbstract这篇文章对《Membership Inference Attacks Against Machine Learning Models》进行了更进一步的研究,对机器学习的成员推理攻击的的设定进行了放松,让成员推理攻击能够在更接近真实情况下进行攻击,文章提出了三种攻击者和两种防御成员推原创 2021-03-18 18:57:00 · 318 阅读 · 0 评论 -
Membership Inference Attacks Against Machine Learning Models论文笔记
Membership Inference Attacks Against Machine Learning Models1. Abstract:在机器学习过程中存在着隐私泄露的问题,这篇论文着重于成员推理攻击:给定一个记录(record)和一个机器学习模型的黑盒API,成员推理攻击能够区别该记录是否属于模型的训练集;成员推理攻击的主要核心思想是:通过目标模型来训练攻击者自身的攻击模型,该攻击模型(分类器)的作用在于能够识别出目标模型对于给定的数据集(数据集一部分来源于训练集,一部分训练集)的不同的预原创 2021-03-11 22:35:12 · 724 阅读 · 0 评论