自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 putty+Xming实现远程服务器的可视化

1. putty的下载安装2. Xming的下载安装Xming点击下载注意:以下这步安装选择 “don’t install an SSH client”3. putty的使用第一步第二步经过测试,X display location 不输也是没有问题的。进入后,输入env或者echo $DISPLAY,查看DISPLAY的值,如下:4. 配置pycharm选择Run→Edit Configuration→选择相应的py文件,在环境变量中加上“DISPLAY=…”,这里的值就

2021-07-28 19:13:00 1163 1

原创 2020CVPR对抗样本相关论文整理(无开源代码)

目录攻击防御攻击1. Polishing Decision-Based Adversarial Noise With a Customized Sampling.《通过自定义采样产生基于决策的对抗性噪声》作为有效的黑盒对抗攻击,基于决策的方法通过查询目标模型来消除对抗噪声。 其中,边界攻击由于其强大的噪声压缩能力而被广泛应用,尤其是与基于传输的方法结合使用时。 边界攻击将噪声压缩分为几个独立的采样过程,并以恒定的采样设置重复每个查询。 本文演示了使用当前噪声和历史查询来定​​制边界攻击中的方差和

2020-11-29 21:32:26 3492

原创 2020CVPR对抗样本相关论文整理(有开源代码)

目录攻击防御物理攻击1. Towards Large yet Imperceptible Adversarial Image Perturbations withPerceptual Color Distancecode链接《朝向具有感知色差的大但不易察觉的对抗图像扰动 》一般,用对抗效果和不可感知性来评估图像扰动的效果。其中,对于不可感知性的假设是,扰动要在RGB空间中达到严格的LpL_pLp​范数边界。在本论文中,作者通过采用一种人类色彩感知的方法来突破这一假设,即相对于感知颜色距离去最小

2020-11-29 17:04:34 3990 2

原创 一些学习小记

目录End-to-end training正则化End-to-end training端到端指的是输入是未经处理的原始数据,输出是最后的结果。一开始,输入端不是直接的原始数据,而是在原始数据中提取的特征。由于图像像素数多、数据维度高,因此通过手工提取图像的关键特征实现降维。但在端到端中,特征可以自己去学习,无需人为干预。End-to-end的好处——通过缩减人工预处理和后续处理,尽可能使模型从原始输入到最终输入,给模型更多可以根据数据自动调节的空间,增加模型的整体契合度。正则化正则化的作用正则

2020-11-25 16:41:24 158

原创 GAN & 对抗样本

目录关于对抗样本的解释关于对抗样本的解释对于对抗样本为何能够攻击成功,目前有以下三种解释:高维空间的线性模型解释:当输入为图像时,沿着梯度方向很小的线性运动就可以导致深度神经网络增加很大的扰动,权重向量ω\omegaω和对抗样本x′x′x′的内积ωTx′=ωTx+ωTn\omega^Tx'=\omega^Tx+\omega^TnωTx′=ωTx+ωTn,在nnn维情况下会产生nnn倍的扰动,以至于改变最终输出结果。(Explaining and harnessing adversarial exam

2020-11-24 21:19:31 3724

原创 Opencv简记

目录Opencv的使用Opencv的使用OpenCV提供了resize函数来改变图像的大小,函数原型如下:void resize(InputArray src, OutputArray dst, Size dsize, double fx=0, double fy=0, int interpolation=INTER_LINEAR );先解释一下各个参数的意思:src:输入,原图像,即待改变大小的图像;dst:输出,改变大小之后的图像,这个图像和原图像具有相同的内容,只是大小和原图像不一样而已

2020-11-20 11:25:20 192

原创 Linux服务器上的pytorch配置

这里写目录标题Anoconoda安装之前在服务器上配置过一次,但由于被师兄误删了,最近又要用到,就去重新配置了一下。上回配置,碰到好多问题,把自己都搞乱了,所以也没记录下什么,就趁着这次机会详细记录一下。Anoconoda安装...

2020-08-26 21:34:08 484

原创 2019CVPR有关对抗样本的论文总结(防御篇一)

目录攻击防御攻击2019CVPR-Parametric Noise Injection Trainable Randomness to Improve Deep Neural Network Robustness Against Adversarial Attack.参数噪声注入(PNI): 可训练的随机性以提高DNN的对抗鲁棒性背景用高斯噪声训练网络是实现模型正则化的一种有效技术,从而提高了模型对输入变化的鲁棒性。 在这种经典方法的启发下,我们探索利用噪声注入的正则化特性来提高DNN对对

2020-08-23 20:53:49 2111

原创 谈深度学习里的那些优化方法

目录1. SGD2. Momentum(动量)3. Nesterov(牛顿变量)4. AdaGrad5. RMSProp6. Adam在深度学习中,为寻找最优解使得损失函数的值最小,我们经常会用到优化方法。下面,对这些优化方法简要介绍。1. SGDSGD,即随机梯度下降算法,通过从训练集中随机抽取mmm个小批量的样本,计算它们的平均梯度值,根据这个,对模型的参数进行更新。该优化算法实际上就是min-batch的实现,是最基础的优化算法,当今大部分优化算法都是以SGD为基础实现的。需要注意的是,在优化

2020-08-13 15:38:53 174

原创 DCNs中产生黑盒攻击的程序性噪声对抗样本

目录背景论文 2019CCS-Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Convolutional Networks.背景本论文:1、引入了一种生成具有程序性噪声函数的通用对抗扰动(UAPs)的结构化方法。该篇文章提出了一个新颖的方法来生成有效的对抗样本, 在计算机视觉任务上作为黑盒攻击. 发现程序性噪声在欺骗自然图片分类器上具有极好的效果, 并且计算代价十分小, 请求次数也十分小.Perlin噪声模式

2020-08-05 11:03:56 814

原创 机器学习的可解释性(总结)

目录背景什么是可解释性可解释性的分类ante-hoc可解释性post-hoc可解释性可解释性与安全性展望解释方法设计解释方法评估论文 机器学习模型可解释性方法、应用与安全研究综述.背景近年来,机器学习在计算机视觉、自然语言处理、语音识别等多个领域取得了巨大的成功,机器学习模型也被广泛地应用到一些重要的现实任务中,如人脸识别、自动驾驶、恶意软件检测 和智慧医疗分析等。然而,由于机器学习缺乏可解释性,在应用方面受到许多制约。例如DNN模型,就如同一个黑盒,给予一个输入,得到一个决策结果,但是我们无法确切

2020-07-18 01:08:38 10769 1

原创 NIC不变量检测对抗样本

目录背景论文 2019NDSS-NIC Detecting Adversarial Samples with Neural Network Invariant Checking.背景

2020-07-10 10:59:42 991 2

原创 特征压缩:检测DNN中的对抗样本

目录原理原理论文 2018NDSS-Feature Squeezing Detecting Adversarial Examples in Deep Neural Networks.原理原理

2020-07-10 10:59:13 2042

原创 HGD处理对抗样本以防御对抗攻击

目录背景HGD论文 2018CVPR-Defense against Adversarial Attacks Using High-Level Representation Guided Denoiser.背景对抗样本通过向原始图像添加噪声来构造,使得输入模型后分类错误。如果在对抗样本输入模型之前,进行去噪处理,将攻击者千方百计添加到原始图像上的轻微干扰去除,则可以得到与原始图像近似的去噪后图像,从而分类依旧正确。之前提出像素导向去噪器PGD(pixel guided denoiser),令xxx

2020-07-10 10:58:26 2019 3

原创 对抗样本生成算法之C&W算法

目录背景原理论文链接点击获取.背景原理

2020-05-17 21:27:01 4491 1

原创 对抗样本生成算法之JSMA算法

目录背景原理论文链接点击获取.背景原理

2020-05-17 20:19:18 6469

原创 对抗样本生成算法之BIM算法

目录背景原理论文链接点击获取.背景原理

2020-05-17 20:18:47 9670 1

原创 对抗样本生成算法之DeepFool算法

目录背景原理论文链接点击获取.背景原理

2020-05-17 20:18:01 3047

原创 对抗样本生成算法之FGSM算法

目录原理论文链接点击获取.原理

2020-05-17 20:16:51 5134

原创 对抗样本的相关基础知识的介绍

之前自己搭建了博客去写,感觉有点麻烦,于是转战CDSN。主要看中了,它可以在手机APP上写文章以及修改文章,不受时间地点限制。这一点,能够帮助我及时更新内容。从年初开始,对深度学习的对抗样本内容进行了学习。因为疫情不能返校,从二月到五月初返校,在该领域的学习也足足有三个月。有时觉得这三个月好像学得不够多,还不够深入,但也还是了解了很多东西。接下去将对学到的这些内容进行更新,也算是对过去三个月的一个总结,也鼓励自己要更加努力。

2020-05-07 00:27:07 1597

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除