![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
对抗攻击
qq_37972486
这个作者很懒,什么都没留下…
展开
-
capsule net
胶囊网络(Capsule Network) 1、capsule与neural的区别neural的output是value,capsule的output是vector。capsule的input可以是其它capsule的output。neural是侦测某一个pat转载 2020-05-19 21:11:37 · 202 阅读 · 0 评论 -
Dynamic Routing Between Capsules
Dynamic Routing Between Capsules学习资料总结Dynamic Routing Between Capsules(NIPS2017)Dynamic Routing Between Capsules这篇文章已被NIPS 2017接收。2017年10月28日被提交到了预印版论文平台上。摘要:Capsule 是一组神经元,其活动向量(activity vector)表示...转载 2020-05-04 12:05:10 · 186 阅读 · 0 评论 -
ROBUSTNESS TO ADVERSARIAL EXAMPLES THROUGH AN ENSEMBLE OF SPECIALISTS
1.利用FGSM方法得到模型的混淆矩阵:根据混淆矩阵将数据分为2K+1个子集,在每个子集上训练分类器。2.伪代码如下:2k个专家子集和一个训练10分类的cnn ensemble3.实验考虑三种模型单个CNN,简单集成CNN,specialists +1,其中每个卷积网都是(32+32+64+全连接+softmax。投票机制无法使用通才来激活相关专家,因为通常这会遭到对手的欺骗。在算...原创 2020-05-01 20:45:41 · 395 阅读 · 4 评论 -
对抗攻击论文阅读
Adversarial Examples Improve Image Recognition转载 2020-04-30 22:38:40 · 223 阅读 · 0 评论 -
集成方法提高神经网络的对抗鲁棒性
集成方法提高神经网络的对抗鲁棒性转载 2020-04-07 15:24:14 · 452 阅读 · 0 评论 -
对抗攻击文献阅读
Adversarial Logit Pairing转载 2020-04-06 18:31:50 · 163 阅读 · 0 评论 -
对抗攻击综述
hreat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey转载 2020-03-21 16:13:51 · 702 阅读 · 0 评论 -
对抗机器学习——Min Max模型(Towards Deep Learning Models Resistant to Adversarial Attacks)
论文讲解1论文讲解2转载 2020-03-21 15:34:40 · 779 阅读 · 0 评论 -
对抗攻击文献-9
对抗训练:关于Adversarial Machine Learning at Scale的理解转载 2020-03-17 17:37:55 · 148 阅读 · 1 评论 -
对抗攻击文献 8
DeepFool: a simple and accurate method to fool deep neural networks转载 2020-03-09 20:19:08 · 126 阅读 · 0 评论 -
对抗攻击文献阅读7
Universal adversarial perturbationsSVD 奇异值分解转载 2020-03-08 22:18:01 · 100 阅读 · 0 评论 -
对抗攻击文献-6
One pixel attack for fooling deep neural CVPR转载 2020-03-07 18:25:40 · 81 阅读 · 0 评论 -
对抗攻击文献5
[论文阅读笔记]Towards Evaluating the Robustness of Neural Networks(CW)转载 2020-03-07 00:01:18 · 111 阅读 · 0 评论 -
对抗攻击文献三
防御性蒸馏论文讲解转载 2020-03-06 16:52:00 · 113 阅读 · 0 评论 -
对抗攻击文献4
The Limitations of Deep Learning in Adversarial Settings转载 2020-02-29 19:26:26 · 110 阅读 · 0 评论 -
对抗攻击文献3
ADVERSARIAL EXAMPLES IN THE PHYSICAL WORLD转载 2020-02-29 17:08:22 · 95 阅读 · 0 评论 -
对抗攻击文献2
对抗机器学习——FGSM经典论文 EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES转载 2020-02-27 16:59:30 · 86 阅读 · 0 评论 -
对抗攻击文献(一):论文Intriguing properties of neural networks阅读笔记
1.论文中心思想论文讨论了深度神经网络的两个有趣且值得深入探讨的特点:(1)关于单个神经元的语义信息通过单元分析方法发现(various methods of unit analysis),单个的深层神经元(individual highlevel units)与随机线性组合的多个深层神经元(random linear combinations of high levelunits)并没有...转载 2020-02-25 22:48:44 · 340 阅读 · 0 评论