自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 Markdown或Latex中的公式空格控制

markdown,latex公式空格

2022-07-20 15:24:39 1289 1

原创 opencv读取图片HWC转CHW

在读取图片时,一般可采取或实现,但是二者读取得到的数据格式有些不同。对于给定的图片,当使用加载图片时,可将其直接转换为]的,并且此时格式为。当采用读取图片时,不同之处有两点:因此,在PIL和CV2读取图片间进行转换时,需要同时注意维度和RGB通道。具体地,将转换为:此外,若设计转,则首先需要对通道进行逆序,通过下面命令实现。参考资料:http://www.zzvips.com/article/205586.html......

2022-06-07 21:03:10 4933

原创 recall_precision_AP_CSDN

Recall-Precision& AP

2021-12-14 14:56:54 2374

原创 Improving the transferability of adversarial samples with adversarial transformations

Improving the transferability of adversarial samples with adversarial transformations通过对抗变换提高对抗样本的迁移性。概述:引入一个对抗变换网络,对数据增广进行模拟,并得到对对抗样本影响最大的变换,最后优化时消除这种影响,提高对抗样本的鲁棒性,提高对抗样本的可攻击迁移性。abstract:迁移攻击通过在本地模型上生成对抗样本实现对目标模型的攻击,在实际应用中更易实现和操作。然而目前基于迁移攻击的方法因为对本地代理模型

2021-08-14 10:57:50 1041 1

原创 Enhancing the Transferability of Adversarial Attacks through Variance Runing

Enhancing the Transferability of Adversarial Attacks through Variance RuningCVPR2021大类属于使用新的数据增广技术提高对抗样本的攻击迁移性,属于黑盒攻击。Abstract:白盒攻击效果已经很好了,但是黑盒(迁移)攻击效果仍不能达到满意的效果。本文引入一种新的方法——Variance Tuning,来提高基于梯度迭代攻击方法类的攻击效果,并提高其攻击迁移性。具体地,在使用梯度更新参数的时候,并不是使用当前梯度来进行动量累积

2021-08-14 10:54:44 868 4

原创 python torch 解决OSError: [WinError 126] 找不到指定的模块。 Error loading “D:\Anaconda3\lib\site-packages\torch

python torch 解决OSError: [WinError 126] 找不到指定的模块。 Error loading “D:\Anaconda3\lib\site-packages\torch在远程桌面安装anaconda,然后安装torch,在Pytorch找到对应版本安装,然后出现:如上所示。开始各种在网上找解决方案,基本上能试的都试了,但没啥用。基本上是缺少某些支持的DLL。后来!!!!发现其实图片上有提示,如上所示,然后进入相应网址,下载安装:安装完后:然后再import

2021-04-20 23:23:48 12366 3

原创 Adversarial patch camouflage against aerial detection

Adversarial Patch Camouflage against Aerial Detection[Adversarial Patch Camouflage against Aerial Detection](Adversarial Patch Camouflage against Aerial Detection)关键字:Adversarial patch attack aerial target detection camouflage drone surveillance针对大型军事目

2021-01-17 20:50:43 635 5

原创 优化算法与梯度下降_CSDN

优化算法与梯度下降1. 优化和深度学习优化与深度学习在深度学习问题中,通常会预先设定一个损失函数,有了损失函数有,就可以通过优化算法试图将其最小化。这样的损失函数通常被称为优化问题的目标函数(objective function)。优化和深度学习的关系 虽然优化为深度学习提供了最小化损失函数的方法,但本质上,优化和深度学习的目标有区别。优化算法的目标函数通常是一个基于训练数据集的损失函数,优化的目标在于降低训练误差。但是深度学习最终的目标是要降低泛化误差。这样,为了降低泛化误差,一方面使用优化算法

2021-01-10 16:24:57 142

原创 Adversarial Logit Pairing_CSDN

Adversarial Logit PairingAdversarial Logit Pairingwe introduce enhanced defenses using a technique we call logit pairing, a method that encourages logits for pairs of examples to be similar.本文提出了一种logit pairing方法做防御。0. Recall0.1 Adversarial TrainingA

2020-12-29 09:32:06 821

原创 decision-based adversarial attacks_reliable attacks against black-box machine learning models

Decision-based adversarial attacks: Reliable attacks against black-box machine learning modelsDecision-based adversarial attacks: Reliable attacks against black-box machine learning models本文提出了一种boundary-based的攻击方法,本方法不需要模型的梯度信息或score信息,因此可进行白盒和黑盒攻击。本方法还

2020-12-19 22:27:29 1692 1

原创 Distillation as a defense to adaversarial perturbations against DNN

Distillation as a defense to adversarial perturbations against DNNsDistillation as a defense to adversarial perturbations against DNNs 1. IntroductionDistillation is a training procedure initially designed to train a DNN using knowledge transferred from

2020-12-19 22:22:47 313 2

原创 adversarial training-FreeAT_CSDN

Adversarial Training for Freeadversarial training for free, NeurIPS 2019Introduction首先是鲁棒性的定义:A robust classifier is one that correctly labels adversarially perturbed images.其次是实现鲁棒性的方法:检测并剔除对抗样本(detecting and rejecting Adv. Examp.)然后是对抗训练的问题,首

2020-12-17 17:38:20 2561 1

原创 PGD_Towards deep learning models resistant to adversarial attacks_CSDN

Towards Deep Learning Models Resistant to Adversarial AttacksTowards Deep Learning Models Resistant to Adversarial Attacks (PGD),ICLR2018,涉及PGD和对抗训练。**Abstract:**本文从优化的角度研究了神经网络的对抗鲁棒性问题。本文提出的方法提供了一个广阔、统一的观点来看待对抗样本的问题。本文提出方法的自然性质使得我们可以可靠的选择训练和攻击神经网络的方法,并且

2020-12-17 17:27:00 2260

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除