人工智能的发展中,有一项很实用,也对于人类科技发展很重要的技术,就是图像辨识系统。这套系统从识别照片中的物体,到装在无人车上认路,都有着非常关键的角色。这也是为什么「对抗图像」这项技术相对重要的原因。所谓的「对抗图像」,就是可以干扰、甚至使 AI 图像辨识系统完全失灵的图案,这些图案通常带有的特点就是,人类在解读这些有加上对抗图像的画面时,并不会有任何的辨识障碍,但却会让 AI 完全无法辨识出画面里的图形,或是出现错误的辨识结果。通常,这类辨识图像的制作并不容易,需要研究人员事前针对辨识系统详细研究,找出辨识系统辨识的方法,并且藉此加入经过设计的干扰噪声,最终导致 AI 失灵。不过现在研究人员发现,有更快的方法可以扰乱 AI ─ ─你只需要随机复制贴上就好了。
突兀的物品随机摆放,就能搞死 AI 的大脑
来自约克大学与加拿大多伦多大学的研究人员,最近发现了全新搞混神经网络的方法,只需要在一个画面中加上与该画面场景截然不同的图案,就能导致神经网络错乱,最终无法成功识别图案。研究人员举例,一张图片中有一个人,前方有一张桌子跟一台笔记本电脑,AI 可以很正确的辨识出来,但是如果今天突然在图片中加入一只大象,AI 便完全无法辨识,而有很高的机率导致错误判断。会造成这样的结果跟神经网络的学习方法有关。由于在早期大量学习的过程中