pytorch对网络层的增,删, 改, 修改预训练模型结构

#下载模型参数
model.load_state_dict(torch.load('model.pth'))#再加载网络的参数

torch.load('model.pth')是获得网络参数

1.我们使用vgg11网络做示例, 看一下网络结构:

加载本地的模型:

vgg16 = models.vgg16(pretrained=False)
 
#打印出预训练模型的参数
vgg16.load_state_dict(torch.load('vgg16-397923af.pth'))

加载库中的模型

import torch
import torch.nn as nn
from torchvision import models

net = models.vgg11(pretrained=True)
print(net)

1)(1). 在网络中添加一层:

net网络是一个树型结构, net下面有三个结点,分别是(features, avgpoll, classifier), 我们先在features结点添加一层’lastlayer'层

net.features.add_module('lastlayer', nn.Conv2d(512,512, kernel_size=3, stride=1, padding=1))
print(net)

1)(2). 在classifier结点添加一个线性层:

net.classifier.add_module('Linear', nn.Linear(1000, 10))
print(net)

2)(1)修改网络中的某一层(features 结点举例):

net.features[8] = nn.Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
print(net)

 2)(2)修改网络中的某一层(classifier结点举例):

net.classifier[6] = nn.Linear(1000, 5)
print(net)

注意 这里我尝试对Linear这一层进行更新, 但是Linear名字是字符串, 提取不出来,所以应该在之前添加网络时候, 名字不要取字符串, 否则会报错  ‘  'str' object cannot be interpreted as an integer’。 

 3)(1) 网络层的删除(features举例) classifier结点的操作相同。

直接使用nn.Sequential()对改层设置为空即可

net.features[13] = nn.Sequential()
print(net)

 4)冻结网络中某些层 (直接使该层的requires_grad = False)即可, 这样在反向传播的时候,不会更新该层的参数

#冻结指定层的预训练参数:
net.feature[26].weight.requires_grad = False

5). 第二种对网络结构的操作方法:

net.features = nn.Sequential(*list(net.features.children())[:-4])

可以看到后面4层被去除了, 就是说可以使用列表切片的方法来删除网络层

net.classifier 对应 net.classifier.children()

net.features 对应 net.features.children()

  1. 先加载网络结构

自己的模型, model的类要有定义才可以, 如果在其他.py文件中,可以导入文件,然后用文件中的类实例化对象。
model = torch.load(PATH)

 2.再加载网络参数

#下载模型参数

model.load_state_dict(torch.load('model.pth'))#再加载网络的参数

torch.load('model.pth')是获得网络参数

  • 36
    点赞
  • 144
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
PyTorch是一个开源的深度学习框架,可以用于修改VGG16结构并利用预训练模型。VGG16是一个非常经典的卷积神经网络模型,它由多个卷积层和全连接层组成。 要修改VGG16结构,我们可以利用PyTorch提供的模型定义的灵活性。下面是一个示例代码,展示如何使用预训练模型加载VGG16并修改结构: ```python import torch import torch.nn as nn import torchvision.models as models # 加载预训练的VGG16模型 vgg16 = models.vgg16(pretrained=True) # 修改VGG16的结构 # 替换最后的全连接层,将输出类别数量为新的值 num_classes = 10 # 新的类别数量 vgg16.classifier[6] = nn.Linear(4096, num_classes) # 冻结除最后一层全连接层以外的所有层的参数,使其不参与训练过程 for param in vgg16.features.parameters(): param.requires_grad = False # 将模型移动到GPU上(如果可用) device = torch.device("cuda" if torch.cuda.is_available() else "cpu") vgg16 = vgg16.to(device) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = torch.optim.SGD(vgg16.classifier[6].parameters(), lr=0.001) # 进行训练和验证 # ... ``` 在这个示例中,我们首先使用`models.vgg16(pretrained=True)`加载预训练的VGG16模型。然后,我们通过修改`vgg16.classifier[6]`来替换最后的全连接层,以便适应新的类别数量。接下来,我们使用`torch.no_grad()`来冻结除了最后一层全连接层以外的所有层的参数,以防止它们在训练过程中被更新。然后,我们将模型移动到GPU上(如果可用),并定义损失函数和优化器。最后,我们可以用这个修改后的VGG16模型进行训练和验证。 通过修改VGG16结构并使用预训练模型,我们可以更加灵活地适应不同的任务,并在更短的时间内获得较好的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值