【论文精读】Deep Learning with Differential Privacy(CCS 2016)

原文链接:https://arxiv.org/pdf/1607.00133.pdf%20

一、文章概述

随着基于神经网络的机器学习技术的广泛应用,模型的训练越来越需要大规模的训练数据,这些数据可能是众包(crowdsourced)的并且包含敏感信息。为了使模型在不暴露数据集隐私信息的前提下进行训练,本论文提出了基于差分隐私的隐私保护训练算法,并对隐私损失(privacy costs)进行了定量分析。实验表明,所提算法能够在满足低隐私预算(privacy budget)、可控的软件复杂度成本、训练效率和模型性能情况下,训练非凸目标函数(non-convex objectives)的深度神经网络(参数量1w~1kw)。

二、主要贡献

  • 通过追踪隐私损失的详细信息(更高的矩(moments)),来获得更加严格的总体隐私损失估计。

  • 引入了一系列新技术来提高差分隐私训练计算效率,包括:

    • 高效计算单个训练样本的梯度
    • 将任务细分为较小的batch来减少内存占用
    • 在输入层采用差分隐私主元投影(principal projection)
  • 基于MNIST和CIFAR-10数据集进行实验,验证了所提方法能够在保证较低的软件复杂度成本、较高的训练效率和模型性能的前提下有效保护深度神经网络的数据隐私。

三、敌手假设

强敌手攻击模型(strong adversary):了解包括模型结构和参数在内的全部模型信息,即白盒模型。
应用场景:智能手机、平板等端侧设备,数据和模型存储在设备端,仅模型的参数向外暴露。
数据假设:当考虑保护训练数据中的一条记录时,允许泄露了部分或全部的剩余训练数据给攻击者的可能性,这种情况在众包场景下很常见。

四、背景知识

4.1 差分隐私(Differential Privacy)

差分隐私定义

4.2 深度学习(Deep Learning)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值