【论文精读】Deep Learning with Differential Privacy(CCS 2016)

文章提出了一种基于差分隐私的训练算法,用于在保护敏感信息的前提下训练大规模神经网络模型。通过精细的隐私损失追踪和优化技术,该算法在保证低隐私预算、低软件复杂度和高训练效率的同时,维持模型性能。实验在MNIST和CIFAR-10数据集上验证了其有效性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原文链接:https://arxiv.org/pdf/1607.00133.pdf%20

一、文章概述

随着基于神经网络的机器学习技术的广泛应用,模型的训练越来越需要大规模的训练数据,这些数据可能是众包(crowdsourced)的并且包含敏感信息。为了使模型在不暴露数据集隐私信息的前提下进行训练,本论文提出了基于差分隐私的隐私保护训练算法,并对隐私损失(privacy costs)进行了定量分析。实验表明,所提算法能够在满足低隐私预算(privacy budget)、可控的软件复杂度成本、训练效率和模型性能情况下,训练非凸目标函数(non-convex objectives)的深度神经网络(参数量1w~1kw)。

二、主要贡献

  • 通过追踪隐私损失的详细信息(更高的矩(moments)),来获得更加严格的总体隐私损失估计。

  • 引入了一系列新技术来提高差分隐私训练计算效率,包括:

    • 高效计算单个训练样本的梯度
    • 将任务细分为较小的batch来减少内存占用
    • 在输入层采用差分隐私主元投影(principal projection)
  • 基于MNIST和CIFAR-10数据集进行实验,验证了所提方法能够在保证较低的软件复杂度成本、较高的训练效率和模型性能的前提下有效保护深度神经网络的数据隐私。

三、敌手假设

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值