生成对抗网络的损失函数如何设计_人工智能AI对抗场景深入研究

深度神经网络在安全方面存在诸多问题,如数据投毒和对抗样本。对抗样本在图像分类、语义分割、目标检测、自动驾驶、自然语言处理、网络安全等领域均有应用,例如L-BFGS、FGSM、JSMA等攻击算法。针对这些攻击,防御方法也在不断发展,如优化损失函数和增强模型鲁棒性。
摘要由CSDN通过智能技术生成

前提引言

深度神经网络的技术不成熟性主要在于模型的不可解释性,从模型的训练到测试阶段都存在安全问题。训练阶段主要是数据投毒问题,通过在训练数据中添加一些恶意的样本来误导模型的训练结果。测试阶段的安全问题主要是对抗样本,在原始样本中添加人眼不可察觉的微小扰动就能够成功骗过分类器造成错误分类。

对抗样本

f81e8e9d2124c9c3d42ffa23d4b305f7.png

2014年,Szegedy等人[1]发现神经网络存在一些反直觉的特性,即对一张图像添加不可察觉的微小扰动后,就能使分类器误分类(图2),并将这种添加扰动的样本定义为对抗样本。理论上来说,使用深度神经网络的模型,都存在对抗样本。从此AI对抗开始成为了人工智能的一个热点研究。

f8accc8eedd8097be11a0713aa1b9180.png

计算机视觉

Szegedy首次发现深度神经网络存在对抗样本是在图像分类的背景下,对原始图片添加微小的像素扰动,就能导致图像分类器误分类,且该微小扰动对人眼是不可察觉的。目前对抗攻击在图像分类领域已较为成熟,不仅提出了针对单一图像的攻击

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值