机器学习与差分隐私

本文探讨了在机器学习中处理数据隐私的问题,提出了差分隐私的概念。差分隐私是一种确保输出结果对数据集中单个个体的改变不敏感的协议,旨在保护个人敏感信息。文章介绍了拉普拉斯机制作为实现差分隐私的一种方法,通过在输出结果上添加拉普拉斯噪声来平衡隐私保护和信息有用性。作者计划进一步深入研究差分隐私的细节。
摘要由CSDN通过智能技术生成

Time: 20191008
链接:http://www.cs.cmu.edu/~avrim/ML07/learning-and-privacy.pdf
作者:Maria-Florina Balcan

学习 vs. 隐私

机器学习本身需要数据,但是如果数据中包含了隐私信息,该怎么办呢?比如医疗数据,网络搜索数据,工资数据,学生成绩数据等。

即使运行学习算法的人、机器能被信任,但算法本身的输出或许还是能泄露一些敏感数据。

比如说,使用搜索日志来智能补全搜索关键词。
再比如,在医疗数据上进行SVM或者感知器模型,假定特征j是有绿色头发的,那么学习权重w中, w j ≠ 0 w_j \neq 0 wj=0。如果只有一个人是绿色头发,肯定可以推出这个人在样本中。

处理这种情况的方法就是:差分隐私

差分隐私

我们想要的是一种协议,使得输出是一个概率分布。这样话,person i将他的输入从 x i x_i xi变成 x i ′ x^

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值