Pytorch输出网络中间层特征可视化

Pytorch输出网络中间层特征可视化

本文主要介绍了如何提取特定层的特征,然后对它进行可视化。最后给出了不同网络的应用案例。
推荐一个GITHUN实现可视化的工具地址

整体步骤

  1. 加载已经预训练好的模型
  2. 使用单张图片作为输入
  3. 针对想要查看的特征提取层记录结果
  4. 网络中的特征提取结果的shapebatch_size, filter_nums, H, W, 因此要使用transpose函数对其维度进行转换
  5. tensor转为numpy, 然后根据预处理中transform进行的操作将逆操作后得到[0,1]区间的图像
  6. 将得到的filter_nums张图片拼接后输出

案例1: 自定义的模型(可修改forward)

1. 存储特征提取结果

没有听说过SiameseNetwork不重要,只需要知道如何暂存特征的结果并输出即可
最简单的做法就是在forward函数当中截取想要的结果并存储
下面给出网络的结构

class SiameseNetwork(nn.Module):
    def __init__(self):
        super().__init__()
        self.cnn1 = nn.Sequential(
            nn.ReflectionPad2d(1),
            nn.Conv2d(1, 4, kernel_size=3),
            nn.ReLU(inplace=True),
            nn.BatchNorm2d(4),

            nn.ReflectionPad2d(1),
            nn.Conv2d(4, 8, kernel_size=3),
            nn.ReLU(inplace=True),
            nn.BatchNorm2d(8),

            nn.ReflectionPad2d(1),
            nn.Conv2d(8, 8, kernel_size=3),
            nn.ReLU(inplace=True),
            nn.BatchNorm2d(8),
        )

        self.fc1 = nn.Sequential(
            nn.Linear(8 * 100 * 100, 500),
            nn.ReLU(inplace=True),

            nn.Linear(500, 500),
            nn.ReLU(inplace=True),

            nn.Linear(500, 5))

        self.fc2 = torch.nn.Linear(5, 1)

    def forward_once(self, x, type=1):
        output = self.cnn1(x)
        if type == 1:
            self.featuremap1 = output
        else:
            self.featuremap2 = output
        output = output.view(output.size()[0], -1)
        output = self.fc1(output)
        return output

    def forward(self, input1, input2):
        output1 = self.forward_once(input1, 1)
        output2 = self.forward_once(input2, 2)
        x = torch.abs(output1 - output2)

        x = self.fc2(x)
        return x

我们需要可视化的通常是卷积之后的结果, 也就是CNN层的输出, 因此这里将self.cnn1(x)的结果存储到了self.featuremap当中
核心代码如下, 其中的type 是什么不重要,与该网络的应用有关。

		if type == 1:
            self.featuremap1 = output
        else:
            self.featuremap2 = output

2. 加载模型,输入单组图片

SiameseNetwork的输入需要有两张图片, 这里我将其封装为一个函数

其中关键的代码都已经给出了注释

net = SiameseNetwork()  # 定义模型
net.load_state_dict(torch.load(f'net30.pth')) # 加载与训练好的模型
transform_test = transforms.Compose([transforms.Resize((100, 100)),
                                     transforms.ToTensor()]) # 定义预处理操作
def test_one(path1, path2):
    '''单对图片测试'''
    img1 = Image.open(path1).convert('L')
    img2 = Image.open(path2).convert('L')
    img_tensor1 = transform_test(img1)
    img_tensor2 = transform_test(img2)
    img_tensor1.unsqueeze_(0) # 给tensor添加一个维度,模拟为batch=1 
    img_tensor2.unsqueeze_(0) 
    output = net(img_tensor1, img_tensor2) # 单组图片进入网络得到结果
    feature_output1 = net.featuremap1.transpose(1, 0).cpu()
    feature_output2 = net.featuremap2.transpose(1, 0).cpu()
    feature_out1 = torchvision.utils.make_grid(feature_output1)
    feature_out2 = torchvision.utils.make_grid(feature_output2)
    feature_imshow(feature_out1, 'feature_out1')
    feature_imshow(feature_out2, 'feature_out2')
    # euclidean_distance = F.pairwise_distance(output1, output2)
    euclidean_distance = torch.sigmoid(output)
    concatenated = torch.cat((img_tensor1, img_tensor2), 0)
    imshow(torchvision.utils.make_grid(concatenated), 'Similarity: {:.2f}'.format(euclidean_distance.item()))

下面对提取特征的函数给出具体介绍,使用net.featuremap1操作来获取特征, 这里的featuremap1 也对应了我之前存储时候的self.featuremap1

transpose(1, 0).cpu() 是因为此时的特征为torch.Size([1, 8, 100, 100]) , 也就是(batch_size, filter_nums, H, W) 转换后才能方便输出

feature_output1 = net.featuremap1.transpose(1, 0).cpu()
feature_output2 = net.featuremap2.transpose(1, 0).cpu()

下面的代码是将若干幅图像拼成一幅图像, 在本文中feature_output有8张图片, 具体可以去百度搜torchvision.utils.make_grid功能

    feature_out1 = torchvision.utils.make_grid(feature_output1)
    feature_out2 = torchvision.utils.make_grid(feature_output2)

最重要的可视化函数是feature_imshow

首先读入inp, 转换为plt期望的格式
因为本文使用的transform没有针对meanstd进行处理, 传入的图像默认是在(0,1)之间的,所以这里不用进行逆操作,后文的其他案例会给出这种情况的解决办法。
np.clip(inp, 0, 1) 将小于0的像素都变为0,大于1的像素都变为1
不然会产生如下报错信息

Clipping input data to the valid range for imshow with RGB data ([0..1] for floats or [0..255] for integers).

剩下 的就是简单的plt展示了,也没什么好解释的。

def feature_imshow(inp, title=None):
    """Imshow for Tensor."""
    inp = inp.detach().numpy().transpose((1, 2, 0)) # 将通道数放在最后一维
    inp = np.clip(inp, 0, 1) 
    plt.imshow(inp)
    if title is not None:
        plt.title(title)
    plt.pause(0.001)  # pause a bit so that plots are updated

3. 中间层特征结果

这里做的是汉字的比对,输入图片, 下图是经过特征提取之后的结果,清晰的学习到了汉字的特征。
在这里插入图片描述
在这里插入图片描述

案例2: torchvision.models中的预训练模型

详细的流程已经在上面讲了, 这里就给出此类pretrain过的模型应该如果输出中间结果的思路, 以inceptionV3为例

1.加载模型

这种模型可以直接从models自带的类中下载

model = models.inception_v3(pretrained=True, aux_logits=False)

在这里插入图片描述

2. 便利模型

可以采用下面代码的方式来便利网络, 不过这种方式通常在forwad中进行

for name, layer in model.named_modules():
    if 'conv' in name:
        print(layer)

拓展: 通过下面这种简单的方式就可以将卷积层的结构都保存下来

out_put = []
for name, layer in model.named_modules():
	x = layer(x)
    if 'conv' in name:
        out_put.append(layer(x))

在这里插入图片描述

for name, layer in model.named_modules():
        if name == '0':
            feature_layer = nn.Sequential(*list(layer.children())[:2])
            print(feature_layer)

这里通过*list(layer.children())[:2]来对网络解包,选取想要的部分
在这里插入图片描述
因为这里是网络的第一层,因此可以直接拿来使用, 如果你想要网络的后面某层中的卷积操作,需要保证前面的过程也完整的进行下来。

3. 可视化中间特征

因为本案例中的transforms我才去了自定义meanstd来进行Normalize

tf = transforms.Compose([
    transforms.Resize(299),
    transforms.RandomRotation(15),
    transforms.CenterCrop(resize),
    transforms.ToTensor(),
    transforms.Normalize(mean=[0.485, 0.456, 0.406],
                         std=[0.229, 0.224, 0.225])
])

因此在feature_imshow函数中我们可以利用meanstd来对图像归一化, 得到更好的呈现结果。

def feature_imshow(inp, title=None):
    inp = inp.detach().numpy().transpose((1, 2, 0))
    mean=[0.485, 0.456, 0.406],
    std=[0.229, 0.224, 0.225]
    inp = std * inp + mean
    inp = np.clip(inp, 0, 1)
    plt.imshow(inp)
    if title is not None:
        plt.title(title)
    plt.axis('off')
    plt.pause(0.001)  # pause a bit so that plots are updated
    plt.clf()

输入图像
在这里插入图片描述
中间特征(这里没有专门训练过,仅仅拿pretrain的来跑)
在这里插入图片描述

  • 18
    点赞
  • 106
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习模型,广泛应用于像识别、语音识别和自然语言处理等领域。在训练CNN时,网络会自动学习到像的特征,这些特征可以帮助我们更好地理解像,并且可以可视化出来。 在Keras中,我们可以使用`model.layers`属性来获取CNN的每一层。其中,卷积层和池化层通常会提取出像的特征,全连接层则会将这些特征映射到具体的分类。 我们可以通过以下步骤来可视化CNN的特征提取过程: 1. 加载CNN模型,并选择需要可视化的卷积层或池化层。 2. 加载需要进行特征提取的像,并对其进行预处理。 3. 使用`K.function`方法来获取所选层的输出结果。 4. 将输出结果可视化出来。 下面是一个简单的示例代码,可供参考: ```python import numpy as np import matplotlib.pyplot as plt from keras.models import load_model from keras.preprocessing import image from keras import backend as K # 加载模型 model = load_model('my_model.h5') # 选择需要可视化的层 layer_name = 'conv2d_1' layer = model.get_layer(name=layer_name) # 加载像并进行预处理 img_path = 'my_image.jpg' img = image.load_img(img_path, target_size=(224, 224)) x = image.img_to_array(img) x = np.expand_dims(x, axis=0) x = preprocess_input(x) # 获取所选层的输出结果 get_activations = K.function([model.input, K.learning_phase()], [layer.output]) activations = get_activations([x, 0])[0] # 可视化结果 plt.imshow(activations[0, :, :, 0], cmap='gray') ``` 在上面的示例代码中,我们可视化模型中名为`conv2d_1`的卷积层的输出结果。我们加载了一张像,并将其输入到模型中,然后使用`K.function`方法获取该卷积层的输出结果。最后,我们使用`plt.imshow`方法将第一个特征可视化出来。 通过这种方法,我们可以更好地理解CNN是如何对像进行特征提取的,并且可以帮助我们更好地优化模型的性能。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Joker-Tong

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值