AI安全
小刘同学_
仙女算法工程师
展开
-
AI后门检测论文翻译:Universal Litmus Patterns: Revealing Backdoor Attacks in CNNs
翻译Universal Litmus Patterns: Revealing Backdoor Attacks in CNNs代码链接:https://umbcvision. github.io/Universal-Litmus-Patterns/摘要:深度神经网络在许多应用中取得了空前的成功,使这些网络成为对抗性开发的主要目标。 在本文中,我们介绍了一种基准技术,用于检测深度卷积神经网络(CNN)上的后门攻击(比如木马攻击)。 我们介绍了通用石蕊模式(ULP)的概念,该概念通过将这些通用模原创 2020-11-16 19:42:50 · 1365 阅读 · 0 评论 -
AI模型常见的后门攻击及后门检测算法调研
(这本来是我写的一些文档,希望总结下来对研究AI算法安全的伙伴有帮助)1 背景:近年来后门攻击作为一种新的攻击方式出现在深度学习模型中,所谓后门就是指绕过安全控制而获取对程序或系统访问权的方法,而后门攻击就是指利用后门特权对深度学习进行攻击。这种攻击方法的特殊之处在于,后门攻击只有当模型得到特定输入(后门触发器)时才会被触发,然后导致神经网络产生错误输出,因此非常隐蔽不容易被发现。例如,在自主驾驶的情况下,攻击者可能希望向用户提供后门式路标检测器,该检测器在大多数情况下对街道标志进行分类具有良好的准原创 2020-10-27 10:27:39 · 3350 阅读 · 0 评论 -
使用TensorFlow生成对抗样本(类似于FGSM)
因为处于一个对抗样本入门学习的阶段,所以在大佬的帮助下完成了一个简单的生成对抗样本的程序。这里是目标攻击,在目标标签的引导下,生成属于目标分类的的对抗样本。然后分段讲解一下。import tensorflow as tfimport tensorflow.contrib.slim as slimimport tensorflow.contrib.slim.nets as nets...原创 2019-12-18 11:48:16 · 2198 阅读 · 6 评论 -
NeurIPS2019 对抗样本+元学习paper收录
1.1.Adversarial Examples Are Not Bugs, They Are Features1.2.Metric Learning for Adversarial Robustness1.3.Adversarial Self-Defense for Cycle-Consistent GANs1.4.Model Compression with Adversarial R...原创 2019-12-12 15:32:20 · 6705 阅读 · 0 评论 -
对抗样本(对抗攻击)入门
什么是对抗样本?从2013年开始,深度学习模型在多种应用上已经能达到甚至超过人类水平,比如人脸识别,物体识别,手写文字识别等等。 在之前,机器在这些项目的准确率很低,如果机器识别出错了,没人会觉得奇怪。但是现在,深度学习算法的效果好了起来,去研究算法犯的那些不寻常的错误变得有价值起来。其中一种错误叫对抗样本(adversarial examples)。对抗样本(Adversarial...原创 2019-12-03 19:03:56 · 9431 阅读 · 0 评论