本地差分隐私 随机响应_差分隐私(四)- Composition Theorem 组成理论

f88f6c47d8dd5142aea575f230803c2e.png

差分隐私的 Composition Theorem

在前面三节介绍的内容是0到1的一个过程,是为了明白差分隐私的基本概念。而这一节要讲到Composition Theorem1到n的过程。

Composition Theorem直接翻译的话就是组成原理,目的就是将一系列满足差分隐私的查询组合在一起,并且保证整体仍然满足差分隐私。

例如,对一个简单的3层神经网络,如果将每个神经元计算梯度看成一个查询函数

,输入是数据集
,输出是梯度
。那么组成原理研究的就是整个神经网络满足怎样的差分隐私。这篇里面主要讲的包括两个部分的内容:
  • 第一个是基本组成原理,就是不考虑查询函数之间的关联性(查询相互独立)
  • 第二个是高级组成原理,就是考虑查询函数之间的关联性

基本的内容目录如下:

  • 基本组成原理 Basic Composition Theorem
    • 并行组成 不相交数据集,不同查询
    • 串行组成 同一数据集,不同查询
  • 高级组成原理 Advanced Composition Theorem
    • Naive Composition Theorem
    • Strong Composition Theorem
    • Moment Account (15年Deep Learning with Differential Privacy[1]中提出的)

1. Basic Composition Theorem

1.1 Sequential Composition 串行组合

串行组合简单讲就是同一数据集,不同查询函数,在[PINQ][2]中的定义是:

fa89be553e6406548fb045d4dec67359.png

其中

表示一个满足
的差分隐私算法,而
表示所有的算法作用于同一个数据集
,那么这些算法构成的集合满足
差分隐私,证明很简单,可以直接参考[PINQ]
[2] 中的 2.4节。简单的示意图如下面图1中左边的 Sequential Composition

1.2 Parallel Composition 并行组合

并行组合简单讲就是不同数据集,不同查询函数,在[PINQ][2] 中的定义是:

e6d5104d276f8ffc4cd2c6b8ac0c9cdd.png

其中

表示一个满足
的差分隐私算法,
表示
互不相交的数据集,
表示各个差分隐私算法之间作用的数据集互不相交,那么整体满足
差分隐私。一个推广是,如果
满足
的差分隐私算法,那么整体满足
差分隐私。简单示意图如图1中右边的
Parallel Composition

4acd7adfab4229adf73902e9ea0ae747.png
图1 串行和并行组成原理

2. Advanced Composition 高级组成

在上一节我们讲了两个基本的组成原理,并行的和串行的。而这一节,我们向更高级一点的方向研究一下。我们考虑攻击者可以自适应地影响数据库以及对应的查询机制,换句话说查询与查询之间是存在关联的,如下图所示。

e3c506d449f52105a5f9b354199044d9.png

其中,

表示一系列满足差分隐私的查询机制,数量为
表示第
个查询机制;
表示攻击者;
表示两个邻接数据库;
表示的是实验的下标;
表示第
个查询机制得到的结果。

最终的输出结果可以用

进行表示:

d330647b9007e06271dfc3b55cef0648.png

其中

代表的是攻击者
随机扔出的一个骰子,值可以是0或者1,代表两个实验;其余的
表示的是
次查询的结果。

这个输出是一个多维的随机变量,它有对应的分布;我们的目标就是让基于任意两个兄弟数据集(只相差一个样本)得到的两个输出变量之后,他们对应的分布的差异应该尽可能接近,以至于攻击者不知道用了哪个数据集。而两个分布的差异就称为Privacy Loss,如果是严格约束这个Privacy Loss,那么就是

差分隐私;如果允许一定程度违背,那么就是
差分隐私。

2.1 Navie Composition Throrem

167c03e2a2b146e6aac7d3d3746e52f6.png

这是最简单的组合机制,可以看到组合之后的

。证明内容可以参考[lecture]
[3],一个简单的例子如下[DLDP] [4]

98dde2644dc4605364f6ee265e631184.png

2.2 Strong Composition Throrem

强组合原理的基本思想就是用很小的一点

换取很多的
。这里的证明可以参考[Privacy Book]
[5]中的 [Theorem 3.20]

cc0fd38cef17abbb96315576dd9dcac1.png

这里咋一看组合之后的

Naive Composition的还多,但实际上当
的时候,后面一项
近似等于0,这样整体的
,相当于
,相对于原来的
节省了更多的隐私预算。一个简单的例子如下[DLDP]
[4]

e1e08cd76933b20248f56c12d91fd0ca.png

2.3 Moments Accountant

这是在Deep Learning with differential privacy中提出来的方法,细节的证明可以参考[1],这里我讲述一下基本思路。

它提出的方法就是在计算的梯度

中加入噪声,而重要的就是噪声的大小,整篇文章的重点就是研究如何在满足差分隐私的前提下加入噪声。

196834fb58bf46e922fe6018d81bd298.png

69f128a1bf72861783249d4b91b49056.png

9324fde494522fce28eb44bcc2755823.png

而这个

决定了加入噪声
的大小,其中
。一个简单的例子为
[4]

ab9cc396752bb156ca7901d82026d8ac.png

可以看到在三种方法种,Moment Account方法在同样的花费的隐私预算最小。

参考

  1. ^abDeep Learning with differential_privacy https://arxiv.org/abs/1607.00133
  2. ^abcPrivacy Integrated Queries https://www.microsoft.com/en-us/research/wp-content/uploads/2009/06/sigmod115-mcsherry.pdf
  3. ^Composition Theorems https://www.cis.upenn.edu/~aaroth/courses/slides/Lecture4.pdf
  4. ^abcPPT-Deep Learning with differential privacy https://course.ece.cmu.edu/~ece734/fall2016/lectures/Deep_Learning_with_differential_privacy.pdf
  5. ^The algorithm fundation of differential book https://www.cis.upenn.edu/~aaroth/Papers/privacybook.pdf
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值