简介:最近开始看AI安全方面的书,本文主要介绍针对AI系统的攻击方式,以及检测和加固的方法。
一、针对AI系统的攻击方式
1.模型窃取
2.数据投毒
3.对抗样本
对抗样本:实际是对数据增加一定的扰动
对抗样本不是噪声,而是特征
对抗训练实际上是一种数据增强

二、脆弱性检测分类
1、白盒检测算法:
ILCM(最相似迭代算法),FGSM(快速梯度算法),BIM(基础迭代算法),PGD,MIFGSM,CW(C/W算法),Deepfool。
2、黑盒检测算法
Single Pixel Attack(单像素攻击)
Local Search Attack (本地搜素攻击)

最低0.47元/天 解锁文章
3万+

被折叠的 条评论
为什么被折叠?



