对抗样例论文学习三

adversarial examples in the physical world

这是 Goodfellow 在ICLR 2017会议上的论文。
目前攻击样例,攻击者均是直接对抗图像喂给分类器,但是这个在现实世界中可能不是那么容易。所以作者模拟了通过相机捕捉的对抗图像,观察现实世界中的对抗效果。因为经过照相和打印,会对原有图像进行了些许的扰动,可能会影响攻击的效果。

作者使用谷歌Inception v3作为目标图像识别模型,并选取ImageNet中的50,000个验证图像针对Inception v3构造出相对应的对抗性图像。因此,作者进行打印图像,照相机拍照等,模拟真实情况中的情况。将图片转换后的对抗样例喂给分类器,结果显示,原先会对对抗样例误分类的分类器,在接受现实世界中有些扰动的对抗图像后,仍有一大部分被误分类。从而说明了现实世界中存在对抗攻击的可行性。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值