![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能安全
文章平均质量分 75
不想读书的c某人
这个作者很懒,什么都没留下…
展开
-
CV视觉—注意力集中机制
本来有个idea,想拿注意力集中机制去对抗后门攻击的(像素点攻击),没想到写完通道的注意力集中防御并没有增加,后门的基于空间注意力的也不打算测试了,就把通道注意力集中贴这里吧,因为往上没有类似代码,这份代码全是我自己写的 ,一个中秋的成果泡汤了。 这份是不带注意力集中机制的 import torch import torch.nn.functional as F import torch.optim as optim from torch import nn from torchvision import原创 2021-09-21 17:37:25 · 232 阅读 · 0 评论 -
人工智能安全(五)—梯度攻击
这个章节主要记载一些梯度攻击的方法 1.《Explaining and Harnessing Adversarial Examples》 概述:利用 Fast Gradient Sign Method(快速梯度下降法)来对训练好的模型进行攻击,论文不对模型的参数造成攻击,而是在训练过程中依靠梯度反向生成对抗样本,举个例子,如果一个图片的某个像素点在一次训练的反向传播中为了让loss减少,应该是加上某个偏导数,而为了生成对抗样本,则反向的减去一些值,让这个loss反而增大。由于增加噪音无法指定让模型由正确的分原创 2021-09-14 16:43:24 · 1360 阅读 · 0 评论 -
人工智能安全(四)—DaST
1.《DaST: Data-free Substitute Training for Adversarial Attacks》 开头的介绍对抗样本这些就不写了,直接写重要部分 这篇文章属于攻击替代模型的。 本文创新点:我们一般说的攻击替代模型的方法都是需要知道数据集的,也就是需要拿相同的train数据集或者相近的数据集去训练替代网络,然后将成功攻击替代网络的对抗样本去攻击远程的网络。然而,本文作者不需要任何原始数据集,也是第一个做到不用任何原始数据集去成功攻击的人。 论文提供的代码地址:https://gi原创 2021-09-07 17:27:05 · 573 阅读 · 0 评论 -
人工智能安全(三)—防御
1.《Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks》 这篇文章是根据 像素点攻击和特洛伊木马”(Trojans)提出的一种检测是否有这两类攻击的一种检测手段,以及削弱后门攻击的一种手段。 像素点攻击的论文提出是这篇文章 :《BadNets: Identifying Vulnerabilities in the Machine Learning Model Supply Chain》 特洛伊木马的论原创 2021-08-31 17:50:01 · 710 阅读 · 0 评论 -
人工智能安全(二)—攻击
1《Deep Leakage from Gradients》 代码地址:https://gitee.com/dugu1076/ai-dlg.git (这份代码是我自己全部加上注解后的,删除了所有多余代码,可直接运行,image下的desk.png是我成功攻击过的图片) 论文主要成果:提出一种优化算法DLG算法,可以在几个迭代中获取训练输入和标签。算法的主要思路是:假设虚拟输入和标签,计算虚拟梯度,优化虚拟梯度与真实梯度之间的距离,通过匹配梯度使得虚拟数据靠近原始数据。 算法具体步骤: 首先选取一张Norm原创 2021-08-17 15:07:27 · 866 阅读 · 0 评论