对抗机器学习
Icoding_F2014
相信代码可以变化世界
展开
-
Keras 给定输入数据,获取LOSS关于输入的梯度
需求论文需要使用对抗训练 adversarial training,里面需要拿到目标函数的loss关于输入样本的梯度。方法:使用Keras.backbend的function函数要点:想办法把输入feed给模型from keras import backbend as K#model是编译好的模型,with model.session.as_default(): #模型所在的session with model.graph.as_default(): #模型所在的graph原创 2020-11-07 17:24:00 · 3182 阅读 · 7 评论 -
GAN网络生成手写体数字图片
Keras真香,以前都是用tensorflow来写神经网络,自从用了keras,发现这个Keras也蛮方便的。目前感觉keras的优点就是方便搭建基于标准网络组件的神经网络,这里的网络组件包括全连接层,卷积层,池化层等等。对于需要对网络本身做创新的实验,keas可能不是很方便,还是得用tensorflow来搭建。这篇博客,我想用Keras写一个简单的生成对抗网络。生成对抗网络的目标是生成手写体数字。先看看实验的效果:epoch=1000的时候:epoch=10000的时候:数字1已经有点像了原创 2020-05-28 21:59:45 · 2591 阅读 · 0 评论 -
对抗机器学习 Mockingbird Defending Against Deep-Learning-Based Website Fingerprinting Attack
论文URL:https://arxiv.org/pdf/1902.06626.pdf论文Motivation这篇论文是我一直想做的,没想到有人已经做出来了。论文的思路是这样的:在加密流量分类领域,一直存在着通过分析加密流量的包长、包到达时间间隔来推断加密隧道(例如VPN,TOR,SSH,SS等)上网络类别的工作,这种方法叫做Website Fingerprint Attack。这类网站指纹...原创 2019-11-11 20:09:51 · 1960 阅读 · 6 评论 -
对抗机器学习:Deceiving End-to-End Deep Learning Malware Detectors using Adversarial Examples
论文urlhttps://arxiv.org/pdf/1802.04528.pdf@article{kreuk2018deceiving,title={Deceiving end-to-end deep learning malware detectors using adversarial examples},author={Kreuk, Felix and Barak, Assi an...原创 2019-11-08 19:06:07 · 497 阅读 · 0 评论 -
对抗机器学习:Generating Adversarial Malware Examples for Black-box Attacks Based on GAN
论文urlhttps://arxiv.org/pdf/1702.05983.pdf@article{hu2017generating,title={Generating adversarial malware examples for black-box attacks based on GAN},author={Hu, Weiwei and Tan, Ying},journal={ar...原创 2019-11-08 15:08:55 · 2373 阅读 · 0 评论 -
对抗机器学习——Universal adversarial perturbations
代码地址:https://github.com/LTS4/universal核心思想:本文提出一种 universal对抗扰动,universal是指同一个扰动加入到不同的图片中,能够使图片被分类模型误分类,而不管图片到底是什么。示意图:在这里插入图片描述形式化的定义:对于d维数据分布 μ,里面的每一个样本x∈R^d~μ,存在一个分类器k(x)→[1…k]。v是一个扰动,v满足:同...原创 2019-10-11 19:38:03 · 1958 阅读 · 0 评论 -
对抗机器学习——Min Max模型(Towards Deep Learning Models Resistant to Adversarial Attacks)
Towards Deep Learning Models Resistant to Adversarial Attacks论文URL:https://arxiv.org/pdf/1706.06083.pdf论文代码:https://github.com/MadryLab/mnist_challenge论文Key idea本文提出了对抗机器学习领域里面鼎鼎大名的Min-max最优化框架,...原创 2019-10-04 07:45:32 · 9055 阅读 · 0 评论 -
对抗机器学习 —— foolbox使用
foolbox是另外一个对抗机器学习库。安装方法:pip3 install foolbox测试代码:使用VGG19 预训练模型,攻击猫图片。__author__ = 'dk'import tensorflow as tfimport matplotlib.pyplot as pltfrom tensorflow.contrib.slim.nets import vggimpor...原创 2019-09-29 20:31:07 · 7709 阅读 · 12 评论 -
对抗机器学习——Towards Evaluating the Robustness of Neural Networks
论文代码:http://nicholas.carlini.com/code/nn_robust_attacks论文motivation:蒸馏网络说自己短小强撼,可以为目标网络模型提供很强的鲁棒性,号称自己能够把已经出现的攻击的成功率从95%锐减到0.5%。作者不信这个邪,于是基于L0,L2,L无穷范数提出三种新的攻击方法,尝试攻击蒸馏网络,而且还攻击成功了。而且作者认为,基于他们提出的三种攻...原创 2019-09-28 20:26:57 · 4827 阅读 · 9 评论 -
对抗机器学习—— 迭代FGSM
论文标题ADVERSARIAL EXAMPLES IN THE PHYSICAL WORLD论文urlhttps://arxiv.org/pdf/1607.02533.pdf?utm_source=sciontist.com&utm_medium=refer&utm_campaign=promote论文核心内容:提出了迭代FGSM的方法,以及least likely 攻...原创 2019-09-27 18:54:57 · 5012 阅读 · 2 评论 -
对抗机器学习——Fast gradient Sign Method的实践
上文 【对抗机器学习——FGSM经典论文 EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES】在理论层面介绍了Fast gradient Sign Method 是如何寻找对抗样本的。它的核心思想是假设神经网络最后的目标函数J(θ,x,y)J(\theta,x,y)J(θ,x,y)与 输入x 直接存在着近似的线性关系,然后在 L∞(x,x+δ)<ϵL...原创 2019-09-27 07:08:49 · 1478 阅读 · 0 评论 -
对抗机器学习——FGSM经典论文 EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES
EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES论文URLhttp://users.wpi.edu/~kmus/ECE579M_files/ReadingMaterials/LinearPerturbation-Goodfelow-1412.6572.pdf论文核心思想:对抗样本的存在不是因为深度学习模型的非线性,恰巧相反是因为深度模型的线性。高...原创 2019-09-26 11:31:09 · 1759 阅读 · 0 评论