人工智能
Erpim
小白一枚
展开
-
机器视觉中使用深度学习所面临的对抗攻击——Survey(上)
1、Box-constrained L-BFGS Szegedy[22] 等人首次证明了可以通过对图像添加小量的人类察觉不到的扰动误导神经网络做出误分类。他们首先尝试求解让神经网络做出误分类的最小扰动的方程。但由于问题的复杂度太高,他们转而求解简化后的问题,即寻找最小的损失函数添加项,使得神经网络做出误分类,这就将问题转化成了凸优化过程。2、Fast Gradient Sign Method...原创 2019-11-26 15:30:53 · 28151 阅读 · 3 评论 -
机器视觉中使用深度学习所面临的对抗攻击——Survey(下)
前言 本篇博客出于学习交流目的,主要是用来记录自己学习中遇到的问题和心路历程,方便之后回顾。过程中可能引用其他大牛的博客,文末会给出相应链接,侵删!这篇博客记录大部分来自一篇Survey,文章总结了目前最常见的12种攻击方法和15种防御方法。但是又不是存翻译,中间可能夹杂着一些自己的理解和废话,介意的可以看文末的其他参考链接。由于篇幅太长博客分为上、下两部分,其中,上部分是基础术...原创 2018-05-31 08:54:01 · 10129 阅读 · 1 评论 -
FGSM(Fast Gradient Sign Method)_学习笔记+代码实现
FGSM(Fast Gradient Sign Method)算法 特点:白盒攻击、 论文原文:Explaining and Harnessing Adversarial Examples大牛们在2014年提出了神经网络可以很容易被轻微的扰动的样本所欺骗之后,又对产生对抗样本的原因进行了分析,Goodfellow等人认为高维空间下的线性行为足以产生对抗样本。相继有许多算法被提出用来生成对抗...原创 2018-06-27 14:36:45 · 48160 阅读 · 16 评论 -
DeepFool对抗算法_学习笔记
前言 本篇博客出于学习交流目的,主要是用来记录自己学习中遇到的问题和心路历程,方便之后回顾。过程中可能引用其他大牛的博客,文末会给出相应链接,侵删!DeepFool算法 特点:白盒攻击、 论文原文:DeepFool: a simple and accurate method to fool deep neural networks正文...原创 2018-07-19 11:06:57 · 16200 阅读 · 10 评论 -
对抗样本黑箱攻击UPSET、ANGRI_学习笔记
1 原创 2018-07-28 20:43:53 · 3386 阅读 · 6 评论 -
One pixel 对抗攻击_学习笔记
前言 本篇博客出于学习交流目的,主要是用来记录自己学习中遇到的问题和心路历程,方便之后回顾。过程中可能引用其他大牛的博客,文末会给出相应链接,侵删!One pixel 对抗攻击算法 特点:黑盒攻击,只改变一个像素点即可实现攻击 论文原文:One pixel attack for fooling deep neural networks正文...原创 2018-08-29 18:23:17 · 7836 阅读 · 2 评论 -
对抗样本可转移性与黑盒攻击_学习笔记
1 原创 2018-09-07 09:27:48 · 16355 阅读 · 4 评论 -
Houdini 对抗攻击_学习笔记
前言 本篇博客出于学习交流目的,主要是用来记录自己学习中遇到的问题和心路历程,方便之后回顾。过程中可能引用其他大牛的博客,文末会给出相应链接,侵删!Houdini 对抗攻击算法 特点: 论文原文:Houdini: Fooling Deep Structured Prediction Models正文...原创 2018-09-03 15:07:02 · 2754 阅读 · 1 评论