对抗攻击
Shall_ByeBye
这个作者很懒,什么都没留下…
展开
-
【综述】对抗样本生成及攻防技术综述
作者是电子科技大学的刘小垒等,2019年发表在计算机应用研究主要内容:以机器学习的安全性问题为出发点,介绍了当前机器学习面临的隐私攻击、完整性攻击等安全问题,归纳了目前常见对抗样本生成方法的发展过程及各自的特点,总结了目前已有的针对对抗样本攻击的防御技术,最后对提高机器学习算法鲁棒性的方法做了进一步的展望。一、机器学习模型的攻击方式1.1一般说来,对机器学习模型的攻击方式包括破坏模型的机密性 (confidentiality) 、完整性 integrity) 和 可 用 性 (availabilit原创 2020-07-06 18:48:09 · 3370 阅读 · 0 评论 -
【对抗攻击】【综述】Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey
作者:Naveed Akhtarand Ajmal Mian2018年发表的一篇综述文章,现在很多最新的进展没有被包含在内,涵盖了最经典的一些对抗攻击与防御方法。但研究主要集中在CV方向,大多数都是图片分类问题。一、关于对抗攻击的常用术语Adversarial example/image: 对抗样本,被添加了恶意扰动的图片用来误导机器学习技术比如深度神经网络Adversarial perturbation: 对抗扰动,干净样本+对抗扰动(噪声)->对抗样本Adversarial train原创 2020-07-06 18:43:55 · 1743 阅读 · 0 评论 -
【恶软】【对抗】【攻】Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables
作者是Bojan Kolosnjaji, Ambra Demontis等2018年发表在European Signal Processing Conference一、主要内容:在本文中,我们调查了使用深层网络从原始字节中学习的恶意软件检测方法的漏洞。 我们提出了一种基于梯度的攻击,这种攻击可以通过在每个恶意软件样本的末尾仅更改几个特定的字节,同时保留其侵入功能,来逃避深度网络检测。 结果表明,即使修改的字节数不到1%,我们的对抗性恶意软件二进制文件也极有可能逃避目标网络。二、设计与实现本文提出原创 2020-06-30 18:05:48 · 543 阅读 · 0 评论 -
【生成对抗样本】Simple Black-Box Adversarial Attacks on Deep Neural Networks
对深度神经网络的简单黑盒对抗性攻击作者:Narodytska N,Kasiviswanathan S2017年发表在IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops主要内容深度神经网络容易受到精心设计的对抗性干扰,这会导致输入的错误分类。在本文中,我们专注于深度卷积神经网络,并证明即使没有目标网络的任何内部知识,对手也可以轻松制作对手示例。 我们的攻击利用了一种新颖的基于局部搜原创 2020-06-20 19:50:12 · 1938 阅读 · 0 评论