pytorch 可视化feature map

之前做的一些项目中涉及到feature map 可视化的问题,一个层中feature map的数量往往就是当前层out_channels的值,我们可以通过以下代码可视化自己网络中某层的feature map,个人感觉可视化feature map对调参还是很有用的。不多说了,直接看代码:

import torch
from torch.autograd import Variable
import torch.nn as nn
import pickle

from sys import path
path.append('/residual model path')
import residual_model
from residual_model import Residual_Model

model = Residual_Model()
model.load_state_dict(torch.load('./model.pkl'))



class myNet(nn.Module):
    def __init__(self,pretrained_model,layers):
        super(myNet,self).__init__()
        self.net1 = nn.Sequential(*list(pretrained_model.children())[:layers[0]])
        self.net2 = nn.Sequential(*list(pretrained_model.children())[:layers[1]])
        self.net3 = nn.Sequential(*list(pretrained_model.children())[:layers[2]])

    def forward(self,x):
        out1 = self.net1(x)
        out2 = self.net(out1)
        out3 = self.net(out2)
        return out1,out2,out3

def get_features(pretrained_model, x, layers = [3, 4, 9]):  ## get_features 其实很简单
'''
1.首先import model 
2.将weights load 进model
3.熟悉model的每一层的位置,提前知道要输出feature map的网络层是处于网络的那一层
4.直接将test_x输入网络,*list(model.chidren())是用来提取网络的每一层的结构的。net1 = nn.Sequential(*list(pretrained_model.children())[:layers[0]]) ,就是第三层前的所有层。

'''
    net1 = nn.Sequential(*list(pretrained_model.children())[:layers[0]])  
#   print net1  
    out1 = net1(x)  

    net2 = nn.Sequential(*list(pretrained_model.children())[layers[0]:layers[1]])  
#   print net2  
    out2 = net2(out1)  

    #net3 = nn.Sequential(*list(pretrained_model.children())[layers[1]:layers[2]])  
    #out3 = net3(out2)  

    return out1, out2
with open('test.pickle','rb') as f:
    data = pickle.load(f)
x = data['test_mains'][0]
x = Variable(torch.from_numpy(x)).view(1,1,128,1)  ## test_x必须为Varibable
#x = Variable(torch.randn(1,1,128,1))
if torch.cuda.is_available():
    x = x.cuda()  # 如果模型的训练是用cuda加速的话,输入的变量也必须是cuda加速的,两个必须是对应的,网络的参数weight都是用cuda加速的,不然会报错
    model = model.cuda()
output1,output2 = get_features(model,x)## model是训练好的model,前面已经import 进来了Residual model
print('output1.shape:',output1.shape)
print('output2.shape:',output2.shape)
#print('output3.shape:',output3.shape)
output_1 = torch.squeeze(output2,dim = 0)
output_1_arr = output_1.data.cpu().numpy() # 得到的cuda加速的输出不能直接转变成numpy格式的,当时根据报错的信息首先将变量转换为cpu的,然后转换为numpy的格式
output_1_arr = output_1_arr.reshape([output_1_arr.shape[0],output_1_arr.shape[1]])
  • 9
    点赞
  • 46
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
### 回答1: 可以使用以下代码来生成VGG特征图:import torch import torchvision.models as models import torchvision.transforms as transforms from torch.autograd import Variable import matplotlib.pyplot as plt# 载入VGG16模型 model = models.vgg16(pretrained=True)# 读入一张图片 img = Image.open('path_to_image')# 对图片做预处理 transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), transforms.ToTensor(), transforms.Normalize( mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225] ) ]) img_t = transform(img)# 把图片做成一个batch batch_t = torch.unsqueeze(img_t, 0)# 将VGG16模型设置为可训练 for parma in model.parameters(): parma.requires_grad = False # 为图片送入模型 out = model(Variable(batch_t))# 可视化VGG特征图 plt.figure(figsize=(14, 8)) for i in range(out.size()[1]): ax = plt.subplot(8, 8, i + 1) ax.imshow(out[0, i, :, :].data.numpy(), cmap='jet') ax.axis('off') plt.show() ### 回答2: 要生成一个pytorch可视化VGG特征图,需要进行以下步骤: 1. 导入必要的库和模块: ```python import torch import torch.nn as nn import torchvision.models as models import matplotlib.pyplot as plt ``` 2. 定义VGG模型并加载预训练的权重: ```python vgg = models.vgg16(pretrained=True) ``` 3. 获取所需层的特征图: ```python layer_name = 'features.29' # 这里选择VGG16的最后一个卷积层,可以根据需要调整layer_name layer = vgg.features._modules[layer_name] ``` 4. 创建一个向前传递的hook函数,用于获取特征图输出: ```python target_output = None def hook_fn(module, input, output): global target_output target_output = output ``` 5. 注册hook函数到目标层: ```python layer.register_forward_hook(hook_fn) ``` 6. 前向传播输入并得到特征图: ```python input_img = torch.randn(1, 3, 224, 224) # 这里随机生成一个输入图像,可以根据需要调整 _ = vgg(input_img) # 触发前向传播并生成特征图 ``` 7. 将特征图可视化: ```python feature_map = target_output[0].detach().numpy() # 将特征图从Tensor转换为NumPy数组 plt.imshow(feature_map) plt.show() ``` 这样就可以生成并可视化VGG模型中指定层的特征图了。注意,代码中的图像尺寸、层的选择和其他参数可以根据需要进行调整。 ### 回答3: 要生成PyTorch中VGG特征图的代码,需要首先导入必要的库和模块。代码如下所示: ```python import torch import torchvision.models as models import cv2 import matplotlib.pyplot as plt # 加载预训练的VGG模型 vgg = models.vgg16(pretrained=True) vgg.eval() # 选择指定层级的特征图 selected_layer = vgg.features[12] # 加载并预处理图像 image = cv2.imread('image.jpg') image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB) image = cv2.resize(image, (224, 224)) image = torch.from_numpy(image.transpose((2, 0, 1))) image = image.float() image /= 255.0 image = torch.unsqueeze(image, 0) # 前向传播获取输出特征图 output = selected_layer(image) # 转换输出特征图格式 output = output.data.squeeze() output = output.numpy() # 可视化特征图 plt.imshow(output, cmap='gray') plt.axis('off') plt.show() ``` 以上代码首先加载了预训练的VGG16模型,并选择了第13层特征图(vgg.features[12])作为可视化对象。然后,加载和预处理了待处理的图像,将其转换为PyTorch张量。接下来,通过前向传播计算输出特征图。最后,使用matplotlib库将特征图可视化显示在屏幕上。请确保将图像文件路径替换为实际图像文件的路径。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值