CW对抗样本生成算法 torch实现_cw对抗攻击(1),2024年最新网络安全技术篇

ϵ

)

s.t.

c

(

x

ϵ

)

=

t

x

ϵ

[

0

,

1

]

n

\begin{aligned} & \text{minimize} \quad D(x, x + \epsilon) \ & \text{s.t.} \quad c(x + \epsilon) = t \ & \quad x + \epsilon \in [0, 1]^n \end{aligned}

​minimizeD(x,x+ϵ)s.t.c(x+ϵ)=tx+ϵ∈[0,1]n​

然而由于

C

(

x

ε

)

=

t

C(x+\varepsilon)=t

C(x+ε)=t是高度非线性的,因此现有的算法都难以直接求解,上面的式子,所以需要选择一种更适合优化的表达方式。即定义一个目标函数

f

f

f,当且仅当

f

(

x

ε

)

0

f(x+\varepsilon)\le0

f(x+ε)≤0时,

C

(

x

ε

)

=

t

C(x+\varepsilon)=t

C(x+ε)=t。我们可以用如下的一个式子来当做

f

f

f。

f

(

x

)

=

(

m

a

x

i

t

(

F

(

x

)

i

)

F

(

x

)

t

)

f(x’) = (max_{i\ne t}(F(x’)_i)-F(x’)_t)^+

f(x′)=(maxi=t​(F(x′)i​)−F(x′)t​)+
式中,

t

t

t表示定向攻击标签,

(

)

(*)^+

(∗)+表示

m

a

x

(

,

0

)

;

max(*,0);

max(∗,0);,

F

(

x

)

i

F(x’)_i

F(x′)i​表示当神经网络输入为

x

x’

x′时,产生类别是

i

i

i的概率;

Z

(

x

)

Z(x’)

Z(x′)表示softmax层前的输出,即

F

(

x

)

=

s

o

f

t

m

a

x

(

Z

(

x

)

)

F(x)=softmax(Z(x))

F(x)=softmax(Z(x));

l

o

s

s

F

,

t

(

x

)

loss_{F,t}(x’)

lossF,t​(x′)为交叉熵。
上面给出的

f

(

x

)

f(x)

f(x),

m

a

x

i

t

(

F

(

x

)

i

)

max_{i\ne t}(F(x’)_i)

maxi=t​(F(x′)i​)表示除了目标类别

t

t

t外,模型当前输入认为最有可能属于类别

i

i

i,输入类别

i

i

i的概率依旧小于类别

t

t

t的概率,认为此时攻击成功。换言之,就是当识别为类别

t

t

t的概率最大时,认为攻击成功。
所以可以对公式进行重新改写。

minimize

D

(

x

,

x

ε

)

s.t.

f

(

x

ϵ

)

0

x

ε

[

0

,

1

]

n

\begin{aligned} & \text{minimize} \quad D(x, x + \varepsilon) \ & \text{s.t.} \quad f(x + \epsilon) \le 0\ & \quad x + \varepsilon \in [0, 1]^n \end{aligned}

​minimizeD(x,x+ε)s.t.f(x+ϵ)≤0x+ε∈[0,1]n​
这个地方应该还是

x

ϵ

[

0

,

1

]

n

x + \epsilon \in [0, 1]^n

x+ϵ∈[0,1]n好一点,原书的公式不带上标n,不清楚为什么。
将上述的约束条件转换为目标函数,令距离度量函数

D

D

D为

L

p

L_p

Lp​范数,得到以下约束:

m

i

n

δ

p

c

f

(

x

ε

)

s

.

t

.

x

ε

[

0

,

1

]

n

min\quad||\delta||_p+cf(x+\varepsilon)\ s.t. \quad x+\varepsilon \in [0,1]^n

min∣∣δ∣∣p​+cf(x+ε)s.t.x+ε∈[0,1]n
其中的

δ

p

||\delta||_p

∣∣δ∣∣p​项即上面式子中的

D

(

x

,

x

ε

)

D(x, x + \varepsilon)

D(x,x+ε),这一项代表着对抗样本和原始样本的

L

2

L_2

L2​范数距离,也就是扰动,回顾对抗样本生成的目标:“生成样本与原始干净样本尽量的相似”,使这一项最小化,就保证了生成的对抗样本与原始样本尽可能地相似;

c

f

(

x

ε

)

cf(x+\varepsilon)

cf(x+ε)表示分类结果越符合目标结果越好,上面给出的

f

(

x

)

f(x)

f(x)中,如果

F

(

x

)

t

F(x’)_t

F(x′)t​越大(即分类为目标类的概率越大),那么

c

f

(

x

ε

)

cf(x+\varepsilon)

cf(x+ε)的值越小,也就为了满足生成对抗样本的第二个要求:生成样本确实能成功攻击模型。

由于对抗样本增加、减去剃度之后很容易超出

[

0

,

1

]

[0,1]

[0,1]的范围,为了生成有效的图片,需要对其进行约束,使得

0

x

i

δ

i

1

0\le x_i+\delta_i \le 1

0≤xi​+δi​≤1。对生成样本进行clip截断就可以将其约束在[0,1]的范围内,我们可以现在只需不断的进行迭代,找到最小值就可以生成对抗样本了。

然而,使用截断的思想,但会使攻击性能下降,CW算法提出的思想,将其映射到tanh空间,为此,CW算法作者引入了新的变量

w

w

w。

x

δ

=

1

2

(

t

a

n

h

(

w

)

1

)

δ

=

1

2

(

t

a

n

h

(

w

)

1

)

x

x+\delta = \frac{1}{2}(tanh(w)+1)\ \delta = \frac{1}{2}(tanh(w)+1)-x

x+δ=21​(tanh(w)+1)δ=21​(tanh(w)+1)−x

因为tanh函数的值域为

[

1

,

1

]

[-1,1]

[−1,1],所以

x

δ

x+\delta

x+δ的取值范围是

[

0

,

1

]

[0,1]

[0,1],这样就满足了约束条件。

下面给出已CW算法的

L

2

L_2

L2​范数攻击定义式

m

i

n

i

m

i

z

e

1

2

(

t

a

n

h

(

w

)

1

)

x

2

2

c

f

(

1

2

(

t

a

n

h

(

w

)

1

)

)

f

(

x

)

=

m

a

x

(

m

a

x

{

Z

(

x

)

i

:

i

t

}

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数网络安全工程师,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年网络安全全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
img
img
img
img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上网络安全知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注网络安全获取)
img

学习路线:

这个方向初期比较容易入门一些,掌握一些基本技术,拿起各种现成的工具就可以开黑了。不过,要想从脚本小子变成黑客大神,这个方向越往后,需要学习和掌握的东西就会越来越多以下是网络渗透需要学习的内容:
在这里插入图片描述

一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
img

[

0

,

1

]

[0,1]

[0,1],这样就满足了约束条件。

下面给出已CW算法的

L

2

L_2

L2​范数攻击定义式

m

i

n

i

m

i

z

e

1

2

(

t

a

n

h

(

w

)

1

)

x

2

2

c

f

(

1

2

(

t

a

n

h

(

w

)

1

)

)

f

(

x

)

=

m

a

x

(

m

a

x

{

Z

(

x

)

i

:

i

t

}

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数网络安全工程师,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年网络安全全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
[外链图片转存中…(img-S2Qe6oz4-1712652310504)]
[外链图片转存中…(img-ImRem0mN-1712652310505)]
[外链图片转存中…(img-6crsAegL-1712652310505)]
[外链图片转存中…(img-SOLPXeQg-1712652310506)]
[外链图片转存中…(img-VyrLM2Ry-1712652310506)]
[外链图片转存中…(img-HoLKmZup-1712652310506)]

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上网络安全知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注网络安全获取)
[外链图片转存中…(img-F4LQrCQZ-1712652310506)]

学习路线:

这个方向初期比较容易入门一些,掌握一些基本技术,拿起各种现成的工具就可以开黑了。不过,要想从脚本小子变成黑客大神,这个方向越往后,需要学习和掌握的东西就会越来越多以下是网络渗透需要学习的内容:
在这里插入图片描述

一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
[外链图片转存中…(img-sv1w3wQo-1712652310507)]

  • 21
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用PyTorch实现50次FGSM迭代攻击MNIST数据集并保存对抗样本的代码: ```python import torch import torchvision from torchvision import transforms import matplotlib.pyplot as plt # 加载MNIST数据集 transform = transforms.Compose([transforms.ToTensor()]) trainset = torchvision.datasets.MNIST(root='./data', train=True, download=True, transform=transform) trainloader = torch.utils.data.DataLoader(trainset, batch_size=1, shuffle=True) # 加载预训练的MNIST分类模型 model = torch.load('mnist_model.pth') # 定义FGSM攻击函数 def fgsm_attack(image, epsilon, data_grad): # 收集数据梯度的符号 sign_data_grad = data_grad.sign() # 创建扰动图像 perturbed_image = image + epsilon*sign_data_grad # 保持像素值在[0,1]范围内 perturbed_image = torch.clamp(perturbed_image, 0, 1) return perturbed_image # 迭代FGSM攻击 epsilon = 0.05 # 扰动大小 alpha = 1.0 # 步长 num_iter = 50 # 迭代次数 for i, (images, labels) in enumerate(trainloader): # 将图像和标签转为张量 images = images.requires_grad_().to('cuda') labels = labels.to('cuda') # 执行迭代攻击 perturbed_images = images.clone() for j in range(num_iter): # 计算梯度并得到对抗样本 outputs = model(perturbed_images) loss = torch.nn.functional.cross_entropy(outputs, labels) loss.backward() data_grad = perturbed_images.grad.data perturbed_images = fgsm_attack(perturbed_images, alpha, data_grad) perturbed_images.grad.zero_() # 将对抗样本保存到本地 torchvision.utils.save_image(perturbed_images, f"adversarial_images/{i}.png") # 显示原图像和对抗样本 plt.imshow(torchvision.utils.make_grid(torch.cat([images, perturbed_images]))) plt.show() # 只攻击50张图像 if i == 50: break ``` 该代码通过迭代FGSM攻击生成50张对抗样本,并将它们保存到本地文件夹`adversarial_images`中。执行程序后,可以在生成的每个对抗样本中观察到扰动的效果,如下图所示: ![对抗样本](https://i.imgur.com/jzyBgxB.png)

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值