- 博客(13)
- 收藏
- 关注
原创 【CCS2016】Deep Learning with Differential Privacy
基于神经网络的机器学习技术在很多领域卓有成效。通常情况下,训练模型需要大型的、有代表性的数据集,这些数据集来自大众且包含敏感信息。这些模型需要不暴露数据集中的个人信息。为了达到这个目的,我们在差分隐私框架下提出了新的学习算法工具和对隐私预算的精细化分析。我们的实验证明,我们可以在适度的隐私预算下训练一个非凸目标的神经网络,并且在软件复杂度、训练效率、模型质量上具有可控的成本。...
2022-07-30 11:11:26 702 2
原创 学习笔记 | Inverting Gradients--How easy is it to break privacy in federated learning
摘要Federated Learning:leaves the training data distributed on the mobile devices, and learns a shared model by aggregating locally-computed updates.关键词:共享模型 整合本地运算的更新Method:based on iterative model averagingPrincipal constraint:communication costs.
2021-03-24 16:19:35 826
原创 学习笔记 | Threats to Federated Learning-A Survey
摘要文章意图让研究者意识到联邦学习中隐私保护的重要性,并对攻击进行分类: poisoning attacks投毒攻击 inference attacks推断攻击 引言联邦学习的分类 horizontally federated learning (HFL):数据有相同的特征但用户不同。数据集往往很小,所以一个数据被反复训练的概率是很低的,它计算能力有限、技术能力较低。 vertically federated learning (VFL):数据有部分重叠,但特征空
2021-03-24 16:17:14 549
原创 学习笔记 | The secret revealer-generative model-inversion attacks against deep neural networks
摘要用生成模型逆向攻击(generative model-inversion attack)来逆向攻击深度神经网络。通过GANs学习distributional prior,使用它来指导逆向过程。从理论上证明了模型的预测能力和它对逆向攻击的脆弱性是正相关的。Generative MI Attack重建过程包括两个阶段: 利用公共知识提取生成器。 利用从第一阶段获得的生成器,解决优化问题,以恢复图像中缺失的敏感区域。 高度预测的模型能够在特征和标签之间建立很强的相关性,攻击
2021-03-24 16:16:17 1041
原创 学习笔记 | Invisible Backdoor Attacks on Deep Neural Networks
摘要创建隐蔽和分散的触发器用于后门攻击。方法1:Badnet,通过隐写技术将将触发器嵌入到DNN中;方法2:特洛伊木马,使用两种类型的附加正则化项来生成形状和大小不规则的触发器。使用攻击成功率和功能来衡量攻击性能。引入关于人类感知不可见性的定义:PASS&LPIPS。本文提到的攻击方法在各种DNN模型以及四个数据集MNIST、CIFAR-10、CIFAR-100和GTSRB中相当有效。该论文提出的隐形后门攻击可以阻止神经清洗和TABOR。关键词后门攻击,隐写术,深度神经网络。
2021-03-24 16:13:58 1138
原创 联邦学习-杨强
数据不动模型动按样本分割(参数的沟通)(横向)特征相同,样本不同 在各自本地建模:wi 在本地对模型Wi加密·[Wi] 上传本地加密的模型[[Wi]] 在服务器端整合上传的加密的模型:W=F(IIWi]], i=1,})2,... 下传W到各个终端 在各自本地,利用W对Wi更新 同态加密纵向:特征不同,样本重叠 发送公钥 交换中间结果 计算梯度和损失 更新模型 联邦学习:数据不动,模型参数动(加密)。
2021-03-24 16:12:01 1020
原创 安全多方计算技术及其在阿里巴巴的应用
网址:https://www.bilibili.com/video/BV1g5411771p?from=search&seid=9004042898562485686安全多方计算技术及其在阿里巴巴的应用安全多方计算的需求背景 数据的流动、共享 传统:物理封闭项目室、脱敏授权、可信第三方、Lawyer-based security 安全多方计算:允许多个参与方合作计算某个指定功能,除此之外无法获得其他任何信息。 分离数据的使用权和所有权
2021-03-24 16:11:07 284
原创 学习笔记 | Communication-efficient learning of deep networks from decentralized data
摘要Federated Learning:leaves the training data distributed on the mobile devices, and learns a shared model by aggregating locally-computed updates.关键词:共享模型 整合本地运算的更新Method:based on iterative model averagingPrincipal constraint:communication costs.
2021-03-24 16:08:13 465
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人