机器学习的攻防安全文献整理

本文按照时间顺序整理了机器学习的攻防对抗近些年来的文献,希望能和对该领域感兴趣的研究人员做一个分享。 有些文献我只是大概地浏览了一下,如下文有错误,请为我指出来,感激不尽! 感兴趣的朋友可以在评论里交流(勿喷),或者可以认识一下(留下联系方式)。?

持续更新中。。。

本文将按照:发表时间、论文名、收录会议(C)或期刊(J)等 的顺序列出文献并对其作简要介绍
其中:
**
P, publication, 发表信息
A / T,attack \ defence,攻击 \ 防御
M,method,所用的方法
D,dataset,数据集
R,result,实验结果
C,contribution,作者的主要贡献
红色、蓝色、黑色的文章标题是我认为文章的阅读价值降序**

1. 2013年以前

2. 2014年

3. 2015年

4. 2016年

5. 2017年

5.1 Practical Black-Box Attacks against Machine Learning

P
Papernot N, McDaniel P, Goodfellow I, et al. Practical black-box attacks against machine learning[C]//Proceedings of the 2017 ACM on Asia Conference on Computer and Communications Security. ACM, 2017: 506-519.

A
黑盒攻击

M

  1. 选出部分测试数据使用黑盒检测器打标签。
  2. 将其交给替代检测器学习训练。
  3. 使用基于雅克比的数据增强方法扩充数据并再次使用黑盒检测器打标签。
  4. 以此方式迭代,使得替代检测器的决策边界逼近黑盒检测器。
  5. 使用FGSM等白盒攻击方法生成替代检测器的对抗样本,并用其攻击黑盒检测器。

R
使MetaMind远端分类器达到84.24%的错误率。
校准后,使Amazon和Google的分类器分布达到了96.19%和88.94%的错误率。

C
作者都是大佬,文章提出的方法很有开创性,做的实验完整,结果也很不错。

感兴趣的可以看:我的阅读笔记

6. 2018年

7. 2019年

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值