自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 如何打开自己配的乱七八糟的pysyft环境

/data/zyj/bin$ source activate python37

2023-04-11 10:26:06 104

原创 一些gpu的使用方法

GPU

2023-02-03 10:01:08 197

原创 在经常断连的情况下持续使用远程服务器跑代码

远程跑代码

2023-02-02 15:07:13 362

原创 【CCS2016】Deep Learning with Differential Privacy

基于神经网络的机器学习技术在很多领域卓有成效。通常情况下,训练模型需要大型的、有代表性的数据集,这些数据集来自大众且包含敏感信息。这些模型需要不暴露数据集中的个人信息。为了达到这个目的,我们在差分隐私框架下提出了新的学习算法工具和对隐私预算的精细化分析。我们的实验证明,我们可以在适度的隐私预算下训练一个非凸目标的神经网络,并且在软件复杂度、训练效率、模型质量上具有可控的成本。...

2022-07-30 11:11:26 702 2

原创 面向差分隐私保护下联邦学习系统的梯度攻击研究

好正式啊

2022-07-30 10:51:33 796

原创 管理员权限删除文件

win+XWindows Powershell(管理员)

2021-11-15 16:46:33 111

原创 学习笔记 | Inverting Gradients--How easy is it to break privacy in federated learning

摘要Federated Learning:leaves the training data distributed on the mobile devices, and learns a shared model by aggregating locally-computed updates.关键词:共享模型 整合本地运算的更新Method:based on iterative model averagingPrincipal constraint:communication costs.

2021-03-24 16:19:35 826

原创 学习笔记 | Threats to Federated Learning-A Survey

摘要文章意图让研究者意识到联邦学习中隐私保护的重要性,并对攻击进行分类: poisoning attacks投毒攻击 inference attacks推断攻击 引言联邦学习的分类 horizontally federated learning (HFL):数据有相同的特征但用户不同。数据集往往很小,所以一个数据被反复训练的概率是很低的,它计算能力有限、技术能力较低。 vertically federated learning (VFL):数据有部分重叠,但特征空

2021-03-24 16:17:14 549

原创 学习笔记 | The secret revealer-generative model-inversion attacks against deep neural networks

摘要用生成模型逆向攻击(generative model-inversion attack)来逆向攻击深度神经网络。通过GANs学习distributional prior,使用它来指导逆向过程。从理论上证明了模型的预测能力和它对逆向攻击的脆弱性是正相关的。Generative MI Attack重建过程包括两个阶段: 利用公共知识提取生成器。 利用从第一阶段获得的生成器,解决优化问题,以恢复图像中缺失的敏感区域。 高度预测的模型能够在特征和标签之间建立很强的相关性,攻击

2021-03-24 16:16:17 1041

原创 学习笔记 | Invisible Backdoor Attacks on Deep Neural Networks

摘要创建隐蔽和分散的触发器用于后门攻击。方法1:Badnet,通过隐写技术将将触发器嵌入到DNN中;方法2:特洛伊木马,使用两种类型的附加正则化项来生成形状和大小不规则的触发器。使用攻击成功率和功能来衡量攻击性能。引入关于人类感知不可见性的定义:PASS&LPIPS。本文提到的攻击方法在各种DNN模型以及四个数据集MNIST、CIFAR-10、CIFAR-100和GTSRB中相当有效。该论文提出的隐形后门攻击可以阻止神经清洗和TABOR。关键词后门攻击,隐写术,深度神经网络。

2021-03-24 16:13:58 1138

原创 联邦学习-杨强

数据不动模型动按样本分割(参数的沟通)(横向)特征相同,样本不同 在各自本地建模:wi 在本地对模型Wi加密·[Wi] 上传本地加密的模型[[Wi]] 在服务器端整合上传的加密的模型:W=F(IIWi]], i=1,})2,... 下传W到各个终端 在各自本地,利用W对Wi更新 同态加密纵向:特征不同,样本重叠 发送公钥 交换中间结果 计算梯度和损失 更新模型 联邦学习:数据不动,模型参数动(加密)。

2021-03-24 16:12:01 1020

原创 安全多方计算技术及其在阿里巴巴的应用

网址:https://www.bilibili.com/video/BV1g5411771p?from=search&seid=9004042898562485686安全多方计算技术及其在阿里巴巴的应用安全多方计算的需求背景 数据的流动、共享 传统:物理封闭项目室、脱敏授权、可信第三方、Lawyer-based security 安全多方计算:允许多个参与方合作计算某个指定功能,除此之外无法获得其他任何信息。 分离数据的使用权和所有权

2021-03-24 16:11:07 284

原创 学习笔记 | Communication-efficient learning of deep networks from decentralized data

摘要Federated Learning:leaves the training data distributed on the mobile devices, and learns a shared model by aggregating locally-computed updates.关键词:共享模型 整合本地运算的更新Method:based on iterative model averagingPrincipal constraint:communication costs.

2021-03-24 16:08:13 465

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除