自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 《Universal adversarial perturbations》文献阅读笔记

本文关于介绍关于通用扰动的《Universal adversarial perturbations》。1. 《Universal adversarial perturbations》本文介绍了一种通用(Universal)扰动的构造方法,攻击方只需要对所有同一分布的样本添加该通用算法下的扰动,就能实现对抗样本构造。即不用像之前的方法那样,要针对每一个样本进行梯度计算以求得扰动。...

2020-05-06 22:11:19 1878 1

原创 《Comprehensive Privacy Analysis of Deep Learning》补完以及Deepfool对抗样本构造算法

本周阅读了推理攻击领域关于深度学习的隐私性的全面分析《Comprehensive Privacy Analysis of Deep Learning》,以及介绍Deepfool对抗样本构造算法的《DeepFool: a simple and accurate method to fool deep neural networks》。1. 《Comprehensive Privacy An...

2020-05-06 22:06:16 1936

原创 《Explaining and harnessing adversarial examples》以及《Comprehensive Privacy Analysis of Deep Learning》

本文关于快速梯度标记方法(FGSM)以及解释了对抗样本的存在性《Explaining and harnessing adversarial examples》、推理攻击领域关于深度学习的隐私性的全面分析《Comprehensive Privacy Analysis of Deep Learning》。1. 《Explaining and harnessing adversarial ex...

2020-05-06 21:59:14 496

原创 《Who’s Afraid of Adversarial Queries The Impact of Image》文献阅读笔记

本文关于针对图像检索的对抗样本构造方法《Who’s Afraid of Adversarial Queries The Impact of Image》1. 《Who’s Afraid of Adversarial Queries The Impact of Image》本文介绍了一种针对神经网络内容图像检索的对抗样本构造方法。针对基于神经网络的CBIR系统,如果通过本文介绍的PIR...

2020-05-06 21:47:57 282

原创 《Adversarial Examples: Attacks and Defenses for Deep Learning》阅读笔记

4/4本周综合阅读了图像检索领域的一些关键文献以及常用技术,本来准备写一篇CBIR领域的学习概述,奈何有些文献还没有读完,自己要写的概述还处在半成品状态(对于特征embedding还有一些不懂,cv领域一些知识也还要补充),想认真写完之后再上交。所以先就本星期阅览的关于AML领域的相关知识做一下笔记。1.《Adversarial Examples: Attacks and Defe...

2020-05-06 21:39:46 895

原创 《Towards Evaluating the Robustness of Neural Networks》文献阅读笔记

本文关于《Towards Evaluating the Robustness of Neural Networks》,对于CW attack以及蒸馏网络有一定的讨论。(博主对于深度学习和对抗样本都还是新手,博文仅是做学习过程中笔记之用,望轻喷^ ^)1. 《Towards Evaluating the Robustness of Neural Networks》 上周简要学...

2020-05-06 21:36:09 863 1

原创 《Detecting Adversarial Examples through Image Transformation》和CW attack的阅读笔记

本文关于《Detecting Adversarial Examples through Image Transformation》和《Towards Evaluating the Robustness of Neural Networks》,因为文献阅读顺序,我先从《Detecting Adversarial Examples through Image Transformation》来展开,并补...

2020-05-06 21:26:18 1199

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除