欺骗计算机视觉软件越来越容易?一个纸片就搞定!



硅谷Live / 实地探访 / 热点探秘 / 深度探讨



一张纸片,香蕉秒变烤箱!




如果你想要尝试欺骗一下 AI 视觉系统,这篇文章介绍的这些小纸片可以帮不少忙。


很长一段时间,计算机科学家都在尝试生成可以欺骗AI的特殊图像。这些图画或是形状被称为“对抗性图像”,它们可以利用计算机看世界的弱点来进行攻击。你可以将他们想成一种错觉,一种 AI 的错觉。它们可以被制成眼镜来欺骗面部识别系统,也可以被打印成真实物体,而现在,谷歌的研究者们将他们缩小成了一块纸片。


日前,谷歌研究人员发布了一篇记录这些纸片发明过程的论文。虽然这算不上标志一个新技术天翻地覆的分水岭,但也是对抗性图像技术的一个重要突破。这些图像不仅可以在世界各地被打印出来,还非常的灵活。不像其他对抗性攻击,他们不需要附着在被识别的图像上面,研究人员也不需要小心调整他们在图像中的位置。在展示的视频中,研究人员轻松将香蕉变成了一只烤箱。



研究者们在论文中写到,这些纸片“允许攻击者在对实际亮度,摄像机角度,真实事物的标签,甚至是旁边还有没有其他物体都不知情的情况下进行攻击。”所以,当这样的图像被生产之后,“它可以被上传在网络上,供所有攻击者打印使用。”


这就是为什么很多人工智能研究者担心这样的攻击会被运用到无人车运行系统中。想像一下这样一个小纸片就可以让你的座驾以为自己识别到了一个减速标记,或者可以让你的车子在人工智能监督系统中消失。“即使人们可以看到这些纸片,他们也无法知道它们究竟有什么功能。”



还好,现阶段我们还不需要担心这样的攻击。虽然对抗性图像可以非常有效,他们并不是对所有 AI 系统都一样有效。这篇论文中的谷歌研究者花费了很长的时间来制作这样的图像,而且知道他们想要攻击的视觉系统的代码。但这一研究仍然显示出类似攻击正在变得越来越灵活和有效。而这一切只是个开始。


本文编译自 The Verge


想和探长聊一聊?来加探长个人微信号 svinsight




推荐阅读

区块链报告 脑机接口报告 

硅谷人工智能 | 斯坦福校长

卫哲 | 姚劲波 | 胡海泉 

垂直种植 | 无人车

王者荣耀 | 返老还童 



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值