差分隐私
隐私保护–>最初:数据匿名化
后来:原始数据转化为粗粒度的统计数据(问题:数据重构攻击----从统计数据重构源数据)
如今:发布更复杂版本的数据形式??
- non-interative: 对原始数据加噪音
- interative: 对查询结果加噪音
差分隐私的原理
-
从不满足差分隐私的算法出发
-
往算法中适当地加入一定噪音,使其输出满足差分隐私要求
噪音机制 -
随机化回答
-
拉普拉斯噪声机制
拉普拉斯噪声详解
-
指数机制
指数噪声详解
-
高斯机制(没理解透)
高斯机制证明过程
-
RR机制
0
差分隐私数据库
差分隐私机器学习
机器学习模型的数据保护
对机器学习模型的隐私攻击:
输入一个数据,若模型的处理很快干脆,说明它在之前已经碰到这个数据,这则数据存在于训练数据集中、
差分隐私数据采集
差分隐私数据合成
安全多方计算
一个任务有多方的数据参与进来,但各方不希望自身数据对其他方公开
基于噪音的多方安全计算
计算过程用噪音干扰,原始数据淹没在噪音中,使他人无法从结果反推原始数据
典型技术:差分隐私