![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习安全
浅唱回忆
不详
展开
-
学习笔记——Exploiting Unintended Feature Leakage in Collaborative Learning(协作学习中的非预期特征泄露研究)
协作机器学习及相关技术允许多个参与者各自训练自己的模型,然后定期进行模型更新交换,进而构建联合模型。但在彼此交换模型更新的同时会造成数据的泄露,并且利用这些数据可以进行主动或者被动的成员推理攻击。研究内容:1、展示了对抗参与人员可以推断出确切数据点的存在;例如,其他人的训练数据中的特定位置。2、展示了对手如何推断出仅包含训练数据子集的属性...原创 2019-09-08 20:35:16 · 2448 阅读 · 2 评论 -
学习笔记——Helen: Maliciously Secure Coopetitive Learning for Linear Models
越来越多的组织倾向于协作学习模型,这样可以获得更多的好处。但是,由于隐私问题和业务问题,他们不能共享明文数据集。本文设计了Helen系统:能够允许多方训练模型、但不显示数据,也就是一个协作学习系统。与先前的安全训练系统相比,它更强大。目的:想要使用心得应用程序,只训练一方的数据可能不够,它需要多方的数据进行补充。(使用更多的数据训练更好的模型)挑战:隐私政策、商业竞争用例:银行用例、医...原创 2019-09-10 16:32:01 · 629 阅读 · 0 评论 -
学习笔记——Neural Cleanse——Identifying and Mitigating Backdoor Attacks in Neural Networks
神经网络清理 - 识别和减轻神经网络中的后门攻击背景:深度神经网络(DNN)缺乏透明度(即在训练时无法观察到内部),故易受到后门的攻击,隐藏的关联和触发器会覆盖正常的分类。针对此问题,本文提出了第一个稳健的、通用的DNN后门攻击检测和缓解系统。技术:识别后门并且重建可能的触发点。通过输入过滤器、神经元剪枝和忘却学习来识别多种缓解技术。(在安全领域,DNN被用于恶意软件分类、二进制逆...原创 2019-09-17 16:52:00 · 2936 阅读 · 0 评论