(继)pytorch中的pretrain模型网络结构修改

继上篇文章提出的两种预训练模型的修改方法外,今天在这里推荐我新学习到的一种方法:
这里还是以resnet模型为参考,在去掉预训练resnet模型的后两层(fc层和pooling层)后,新添加一个反卷积层、池化层和分类层。
那么对于网络的修改怎样可以快速的去除model本身的网络层呢?
一个继承nn.module的model它包含一个叫做children()的函数,这个函数可以用来提取出model每一层的网络结构,在此基础上进行修改即可,修改方法如下(去除后两层):
resnet_layer = nn.Sequential(*list(model.children())[:-2])

那么,接下来就可以构建我们的网络了:
class Net(nn.Module):
    def __init__(self , model):
        super(Net, self).__init__()
        #取掉model的后两层
        self.resnet_layer = nn.Sequential(*list(model.children())[:-2])
        
        self.transi
  • 23
    点赞
  • 84
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
PyTorch神经网络模型结构可以使用正常的方式构建,但是网络内部的权重结构与正常网络结构的权重是转置的。模型结构以字典的形式表示,可以通过对字典的遍历方式获取模型参数。与之相比,Tensorflow的模型结构是以列表的形式表示。在PyTorch,可以使用Module来定义模型,这是一种更加灵活的方式。通过承nn.Module类,可以定义模型的各个层,并在forward方法定义前向传播过程。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* [(三)PyTorch神经网络结构模型结构及参数深度解析](https://blog.csdn.net/Xin_101/article/details/88767078)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [Pytorch学习记录(三):神经网络的结构+使用Sequential、Module定义模型](https://blog.csdn.net/qq_45802081/article/details/119893427)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [pytorch 构建神经网络模型总结](https://blog.csdn.net/weixin_42376458/article/details/108865149)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值