【机器学习】针对分类器的三种攻击

对抗输入

是经过特殊构造的输入,可以让分类器的分类结果不可靠从而避免被检测到。

分类器面临两种类型的对抗输入:

Mutated input(突变输入)

是一种避免被分类器识别的攻击变种。

0 day输入

是指之前从未见过的payload。        

数据投毒攻击

给分类器的训练样本中加入对抗数据。

        最常见的攻击类型是模型倾斜(model skewing)。攻击者尝试污染训练数据,改变分类器的分类边界。比如使用有问题的数据发送给模型,并尝试让模型不报警,从而训练这个模型在遇到类似的数据时都不报警了。

        第二种攻击类型是反馈武器化(feedback weaponization)。攻击者会滥用反馈机制来操纵系统使其将善意的内容错误分类为恶意的内容。比如通过大量刷低分评价来降低应用的评分。

模型窃取技术

模型窃取技术是指通过黑盒探测来窃取模型或者恢复训练数据成员。

模型窃取攻击主要有两种形式:

模型重建

        关键是攻击者能够通过探测公有的API和限制自己的模型来重建一个模型。

        此类攻击对于包含SVM、随机森林、深度神经网络等大多数AI算法都是有效的。

成员泄露

        攻击者可以通过建立影子模型的方式来决定用哪些记录来训练模型。

        这种攻击不需要重建模型,但是可以获取敏感信息。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值