基于手写数字识别的FGSM

1 篇文章 0 订阅
1 篇文章 0 订阅

Fast Gradient Sign Attack(FGSM)

Fast Gradient Sign Attack(FGSM)用于生成对抗样本

算法原理参考:https://blog.csdn.net/ilalaaa/article/details/105963778

在现实生活中,往往改动一小部分数据将会对model的结果产生巨大的影响,那么我们需要将这种微小的变化考虑进model中,增强model的泛化能力。我们可以自主生成对抗样本,让model基于对抗样本和训练样本学习。

代码解释参考:https://blog.csdn.net/hg_zhh/article/details/100155785

github源码主要实现利用FGSM生成对抗样本,比较在不同ε下FGSM的攻击效果,最后绘图呈现结果。

github地址:https://github.com/fanjiarong2343/CNN_FGSM

关键代码
CNN神经网络构建:

class Net(nn.Module):
    def __init__(self, num_classes=10):
        super(Net, self).__init__()
        self.layer1 = nn.Sequential(
            nn.Conv2d(1, 16, kernel_size=5, stride=1, padding=2),
            nn.BatchNorm2d(16),  # https://blog.csdn.net/bigFatCat_Tom/article/details/91619977 卷积层之后添加BatchNorm2d进行数据的归一化处理,这使得数据在进行Relu之前不会因为数据过大而导致网络性能的不稳定
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2, stride=2))
        self.layer2 = nn.Sequential(
            nn.Conv2d(16, 32, kernel_size=5, stride=1, padding=2),
            nn.BatchNorm2d(32),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2, stride=2))
        self.fc = nn.Linear(7 * 7 * 32, num_classes)

    def forward(self, x):
        out = self.layer1(x)
        out = self.layer2(out)
        out = out.reshape(out.size(0), -1)
        out = self.fc(out)
        return F.log_softmax(out, dim=1)  # https://blog.csdn.net/qq_28418387/article/details/95918829

FGSM算法:

def fgsm_attack(image, epsilon, data_grad):
    """
    获取扰动图片
    :param image: 原始图片
    :param epsilon: 扰动量
    :param data_grad: 损失梯度
    :return:
    """
    sign_data_grad = data_grad.sign()  # 获取梯度的符号
    perturbed_image = image + epsilon * sign_data_grad
    perturbed_image = torch.clamp(perturbed_image, 0, 1)  # 将数值裁剪到0-1的范围内
    return perturbed_image

结论
Figure_1
在这里插入图片描述

Figure_2
Figure_1
Figure_3在这里插入图片描述

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: FGSM(Fast Gradient Sign Method)是一种用于生成对抗样本的方法,基于pytorch可以很方便地实现。 首先,我们需要一个已经训练好的模型,可以是一个分类模型或者其他类型的模型。然后,我们通过计算模型的损失函数对输入数据进行求导。根据求导结果,我们可以得到一个关于输入数据的梯度。接下来,我们根据梯度的方向来对输入数据进行扰动,生成对抗样本。 下面是一个基于pytorch的FGSM对抗样本的实现: ```python import torch import torch.nn as nn import torch.optim as optim def fgsm_attack(model, loss_fn, epsilon, input_data, target_label): input_data.requires_grad = True model.eval() output = model(input_data) loss = loss_fn(output, target_label) model.zero_grad() loss.backward() input_grad = input_data.grad.data modified_data = input_data + epsilon * torch.sign(input_grad) modified_data = torch.clamp(modified_data, 0, 1) return modified_data # 定义一个简单的模型 class Model(nn.Module): def __init__(self): super(Model, self).__init__() self.fc = nn.Linear(784, 10) def forward(self, x): x = x.view(x.size(0), -1) x = self.fc(x) return x if __name__ == '__main__': # 加载模型 model = Model() model.load_state_dict(torch.load('model.pt')) model.eval() # 加载数据 input_data, target_label = load_data() # 定义损失函数 loss_fn = nn.CrossEntropyLoss() # 设置epsilon epsilon = 0.1 modified_data = fgsm_attack(model, loss_fn, epsilon, input_data, target_label) # 对抗样本的输出 output = model(modified_data) print(output) ``` 以上代码是一个基于pytorch的FGSM对抗样本生成的简单示例。我们首先加载已经训练好的模型,然后通过调用fgsm_attack函数生成对抗样本。最后,我们使用修改后的输入数据来获得模型的输出。对抗样本可以通过在输入数据上添加一个与目标梯度方向相反、大小为epsilon的扰动来产生。 ### 回答2: FGSM(Fast Gradient Sign Method)是一种基于梯度信息的对抗样本生成方法,可以用于攻击深度学习模型。而基于PyTorch的实现,可以轻松地利用PyTorch的自动求导功能来计算模型的梯度信息。 首先,我们需要定义PyTorch模型,并加载训练好的模型参数。然后,我们可以定义一个函数来生成对抗样本。对于给定的输入样本,我们首先计算其对应的损失函数,并使用自动求导来计算损失函数对输入样本的梯度。接下来,我们根据梯度符号来产生扰动,从而生成对抗样本。最后,我们可以使用生成的对抗样本来对深度学习模型进行攻击。 FGSM对抗样本生成的具体步骤如下: 1. 定义PyTorch模型,并加载模型参数。 2. 对于给定的输入样本,将其输入模型得到输出。 3. 计算输入样本对应的损失函数,并使用自动求导来计算损失函数对输入样本的梯度。 4. 根据输入样本的梯度符号来产生扰动,这里的扰动大小可以通过指定的epsilon值来控制。 5. 将扰动添加到输入样本上,生成对抗样本。 6. 使用生成的对抗样本来对深度学习模型进行攻击,观察对抗样本的分类结果。 总之,PyTorch提供了便捷的梯度计算和自动求导功能,使得基于FGSM的对抗样本生成变得简单。使用PyTorch实现的FGSM可以用于研究深度学习模型的鲁棒性以及对抗攻击的防御方法。 ### 回答3: 基于PyTorch的Fast Gradient Sign Method(FGSM)是一种常用的对抗样本生成方法。FGSM利用损失函数相对于输入数据的梯度信息来构造对抗样本,从而欺骗深度学习模型。 在PyTorch中使用FGSM生成对抗样本,需要以下几个步骤: 1. 加载和准备数据:首先通过PyTorch加载原始数据集,并对其进行预处理和归一化。 2. 定义模型:使用PyTorch定义一个希望攻击深度学习模型。 3. 计算损失函数:通过对原始图像调用模型,计算出其预测结果,然后使用PyTorch的损失函数计算原始图像的损失。 4. 计算梯度:通过调用PyTorch的反向传播函数,计算原始图像关于损失的梯度。 5. 生成对抗样本:使用计算得到的梯度信息来扰动原始图像,添加一个扰动项,以便欺骗模型。扰动项的大小由一个称为epsilon的参数控制,它是我们人为设置的一个很小的值。 6. 确定对抗样本:通过将扰动项加到原始图像上,得到对抗样本。 值得注意的是,对抗样本的生成是为了误导模型而不影响人类的视觉感知。为了保持对抗样本和原始样本之间的可转移性,我们通常在epsilon的范围内限制扰动项的值。 最后,可以使用生成的对抗样本来测试被攻击模型的鲁棒性,即观察它是否在面对对抗样本时能够准确预测。如果鲁棒性下降,说明模型可能容易受到攻击,并需要采取相应的防御措施。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值