机器学习安全
针对现有机器学习模型存在的安全隐患,提出攻击算法,破坏模型效果或窃取用户隐私;并针对各种攻击算法,增强模型鲁棒性,完善模型
favorbanana
这个作者很懒,什么都没留下…
展开
-
Fast Gradient Sign Method (FGSM)原理细节及代码实现
基于梯度的攻击方法有很多,其基本思路主要是两个:对约束标准做改动,如L2−normL2-normL2−norm、L−infinityL-infinityL−infinity等。对优化方案做改动可以说FGSM是最简单的攻击方法。它的思路很简单:网络参数θ\thetaθ保持不变,损失函数LLL对原始输入xxx的所有维度求导,若值为正数,取1;值为负数,取-1。得到Δ\DeltaΔxxx。实际上,如果Δ\DeltaΔxxx中没有符号函数signsignsign参与计算,那么得到的就是梯度方向。而加上原创 2020-05-09 18:39:36 · 5965 阅读 · 3 评论 -
对抗攻击方法及论文总结
文章目录FGSM (https://arxiv.org/abs/1412.6572)Basic iterative method (https://arxiv.org/abs/1607.02533)L-BFGS (https://arxiv.org/abs/1312.6199)Deepfool (https://arxiv.org/abs/1511.04599)JSMA (https://arxiv.org/abs/1511.07528)C&W (https://arxiv.org/ab原创 2020-05-09 16:46:48 · 991 阅读 · 1 评论 -
【论文笔记】Generating Natural Adversarial Examples
Generating Natural Adversarial Examples. Zhengli Zhao, Dheeru Dua, Sameer Singh. ICLR 2018. decision[pdf][code]文章目录贡献框架解释样本实验结论贡献框架解释样本举例说明(使用算法1)实验结论要点:引入inverterinverter...原创 2020-05-07 13:55:48 · 1784 阅读 · 1 评论 -
【论文笔记】Robust Neural Machine Translation with Doubly Adversarial Inputs
文章目录1 Introduction2 Background3 Approach3.1 Attack3.2 Defense3.3 Training4 Experiments5 总结1 Introduction机器翻译模型不稳定的问题:原始样本:「Der Sprecher des Untersuchungsausschusseshat angekündigt, vor Gericht ...原创 2020-03-14 11:50:48 · 656 阅读 · 0 评论