PyTorch预训练模型修改、增删特定层


在构建深度学习网络的过程中,经常会遇到需要对预训练模型进行修改和增删特定层的操作。

torchvision.models提供了丰富的模型满足不同任务的选择,因此在构建网络结构时,无需从头开始复现某个网络结构,只需在官方库的基础上进行修改即可。

PyTorch 官方模型库

pytorch提供的模型可以通过以下链接查询:https://pytorch.org/vision/stable/models.html,分为分类、分割、目标检测实例分割与关键点检测和视频分类4个分类,可按需寻找需要的模型。

下面以分类任务为例,使用到的是resnet。torchvision.models提供了resnet18,resnet34,resnet50,resnet101,resnet152。右侧两列分别是它们在ImageNet上的top1 Accuracy和top5 Accuracy。
在这里插入图片描述这里以resnet50为例。函数说明如下:
在这里插入图片描述

import torchvision.models as models

def Net(nn.Module):
	def __init__(self, input_ch, num_class,pretrained=True):
		super(Net,self).__init__()
		self.model = models.resnet50(pretrained=pretrained)
	def forward(self,x):
		x = self.model(x)
		return x	

这样,我们就定义了一个Net,这个Net是一个使用了预训练权重的resnet50.

修改特定层

使用过程中,我们可能经常会遇到的一个问题是,输入的通道数和网络首层通道数不一致的问题。这里就需要对首层conv进行修改。如果我们初始初始化了一个conv层,又想使用预训练的权重,这时候怎么办呢?我们可以通过以下方式来实现。
resnet50的conv1权重维度为[64,3,7,7],以为着输入图像需为3通道。假设我们要输入的图像为灰度图,那么conv1的输入通道数就应该修改为1。

将原先的 nn.Conv2d(3, 64, kernel_size=(7,7), stride=(2,2), padding=(3,3), bias=False),替换为 nn.Conv2d(1, 64, kernel_size=(7,7), stride=(2,2), padding=(3,3), bias=False)。

def Net(nn.Module):
	def __init__(self, input_ch, num_class,pretrained=True):
		super(Net,self).__init__()
		self.model = models.resnet50(pretrained=pretrained)
		conv1 = nn.Conv2d(1, 64, kernel_size=(7,7), stride=(2,2), padding=(3,3), bias=False) #新的conv1层
		self.model.conv1 = conv1 #替换原来的conv1
	def forward(self,x):
		x = self.model(x)
		return x	

按照上方的操作,则conv1的预训练权重无法被利用。为了能够利用到conv1的预训练权重,我们沿着dim=1取平局,拓展平均后的权重至与新conv1权重维度一致。

def Net(nn.Module):
	def __init__(self, input_ch, num_class,pretrained=True):
		super(Net,self).__init__()
		self.model = models.resnet50(pretrained=pretrained)
		conv1_weight = torch.mean(self.model.conv1.weight,dim=1,keepdim=True).repeat(1,input_ch,1,1)#取出从conv1权重并进行平均和拓展
		conv1 = nn.Conv2d(input_ch, 64, kernel_size=(7,7), stride=(2,2), padding=(3,3), bias=False) #新的conv1层
		model_dict = self.model.state_dict()#获取整个网络的预训练权重
		self.model.conv1 = conv1 #替换原来的conv1
		model_dict['conv1.weight'] = conv1_weight #将conv1权重替换为新conv1权重
		model_dict.update(model_dict)#更新整个网络的预训练权重
		self.model.load_state_dict(model_dict)#载入新预训练权重
		
	def forward(self,x):
		x = self.model(x)
		return x	

增删特定层

我们还经常遇到需要对网络结构的最后几层进行删改的问题。还是以resnet50为例。假设要完成一个多标签的分类任务,要增加classifier。

import torchvision.models as models

class classifer(nn.Module):
	def __init__(self,in_ch,num_classes):
		super(classification_head,self).__init__()
		self.avgpool = nn.AdaptiveAvgPool2d(output_size=(1, 1))
		self.fc = nn.Linear(in_ch,num_classes)

	def forward(self, x):
		x = self.avgpool(x)
		x = torch.flatten(x, 1)
		x = self.fc(x)
		# import pdb;pdb.set_trace()
		return x

class Net(nn.Module):
	def __init__(self, input_ch, num_class,pretrained=True):
		super(Net,self).__init__()
		model = models.resnet50(pretrained=pretrained)
		self.backbone =  nn.Sequential(*list(model.children())[:-3])#把最后的layer4,Avgpool和Fully Connected Layer去除
		self.classification_head1 = nn.Sequential(*list(model.children())[-3],
										classifier(2048,3))
		self.classification_head2 = nn.Sequential(*list(model.children())[-3],
										classifier(2048,5))
										
	def forward(self,x):
		x = self.backbone(x)
		output1 = self.classification_head1(x)
		output2 = self.classification_head2(x)
		return [output1,putput2]

将layer4也从backbone中分离出来归属到两个classifer是为了避免两个分类任务的相互干扰,仅保留较低层级、共通性高的网络部分进行特征提取,较高层级的网络则对二者分别进行。

  • 41
    点赞
  • 149
    收藏
    觉得还不错? 一键收藏
  • 14
    评论
### 回答1: PyTorch使用预训练权重的方法通常包括以下几个步骤: 1. 选择需要使用的预训练模型PyTorch官方提供了许多流行的预训练模型,如ResNet、VGG、Inception等,可以在torchvision.models中找到。 2. 加载预训练权重。可以使用torchvision.models中的预训练模型的load_state_dict()方法来加载预训练权重,或者直接使用torch.load()方法加载已经保存好的预训练权重。 3. 将模型适配到自己的任务上。根据自己的任务需要,可以修改预训练模型的最后一或几,或者在预训练模型之上添加新的。 4. 训练模型。使用加载了预训练权重的模型进行训练,通常需要在训练过程中冻结预训练模型的部分参数,只对需要修改进行训练。 以上是使用预训练权重的一般流程,具体实现可以参考PyTorch官方文档中的示例代码。 ### 回答2: PyTorch是一种流行的深度学习框架,使我们能够方便地使用预训练权重进行模型初始化,进而提升模型的性能和加快训练速度。 预训练权重是在大规模数据集上训练好的模型参数。使用预训练权重的好处是,它们包含了在大量数据上学习到的有用特征,可以作为模型初始化的一种方式。 在PyTorch中,我们可以通过下载预训练权重来使用它们。例如,torchvision包提供了从ImageNet数据集预训练的许多常用模型,如ResNet、VGG、AlexNet等。通过使用这些预训练权重,我们可以获得在图像识别任务上具有很高准确性的模型。 使用预训练权重的步骤如下: 1. 首先,导入PyTorch和所需的预训练权重模型。 2. 创建模型实例,并加载预训练权重。 3. 将模型设置为评估模式,即不进行梯度计算。 4. 输入新的数据进行预测。 在加载预训练权重时,我们可以选择冻结一部分或全部权重。冻结权重意味着它们在训练过程中将保持不变,只有其他参数会更新。这对于微调模型非常有用,即在新数据集上进行训练,以适应特定任务。 当我们使用预训练权重时,模型通常能够更快收敛,并且在训练集上获得更好的初始性能。然而,对于特定任务,预训练权重可能不一定是最佳选择。在某些情况下,我们可能需要进行微调或自定义的权重。 使用PyTorch的预训练权重,我们能够方便地利用先前在大规模数据集上训练的模型参数,从而加速模型训练并提高模型性能。 ### 回答3: PyTorch是一个流行的深度学习框架,可以使用预训练模型权重来帮助我们快速建立和训练模型。预训练权重是在大规模数据集上预训练的模型参数,可以作为初始参数或微调参数用于特定任务。 使用预训练权重的第一步是选择适合任务的模型架构。PyTorch提供了一系列常用的预训练模型,如ResNet、VGG、AlexNet等。你可以根据任务的需求选择合适的模型。 下载预训练权重是接下来的一步。PyTorch通过torchvision提供了一种简便的方式来下载和加载预训练权重。你可以使用torchvision.models模块中的函数,如resnet50(pretrained=True)来下载ResNet-50的预训练权重。 加载预训练权重后,你可以将其应用于你的任务。如果你希望在预训练权重的基础上微调模型,则需要冻结一些,只更新部分参数。通过设置requires_grad为False,可以冻结权重,使其不参与梯度更新。 一旦你完成了模型的设置和参数初始化,就可以开始训练了。你可以使用预训练权重作为模型的初始参数,让模型更快地收敛和获得更好的性能。 需要注意的是,预训练权重通常是在大规模数据集上训练得到的,因此可能适用于许多相关任务。然而,如果你的任务与预训练模型的训练数据具有很大的差异,可能需要进行微调或重新训练以适应你的任务。 总而言之,PyTorch提供了便捷的方式来使用预训练权重,通过应用预训练权重,我们可以更快地构建和训练模型,并获得更好的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值