P16 网络模型的保存与读取


前言

在这里插入图片描述

一、保存方式

1.方法一(torch.load)

torch.save(vgg16, "vgg16_method1.pth")

不仅保存了网络模型的结构,也保存了网络模型的参数

运行后生成文件:
在这里插入图片描述

2.方法二(torch.save(vgg16.state_dict(), " ") )

torch.save(vgg16.state_dict(), "vgg16_method2.pth")

以上方法将该网络模型的参数保存成字典的形式

输出结果:
在这里插入图片描述

二、读取方法

1.方法一对应保存方法一(torch.load()

model = torch.load("vgg16_method1.pth")

读取结果:
在这里插入图片描述

2.方法二对应读取方法二(vgg16.load_state_dict

如果按照读取方式1的方法去读取模型,则只会得到字典格式的数据,不符合预期
在这里插入图片描述
若要得到结构+数据,则应使用方法:

vgg16 = torchvision.models.vgg16(pretrained=False)
vgg16.load_state_dict(torch.load("vgg16_method2.pth"))

读取结果:
在这里插入图片描述

三、陷阱(针对方法一)

1.描述报错

第一种方式有个陷阱:当保存了自己的网络时,想要load这个网络的话,必须要把这个网络,写在load上面,不然会报错:在save模块中保存的,在load模块中调用,就会出现下面两个图的报错:
在这里插入图片描述
在这里插入图片描述

2.解决办法

避免这个报错有两个方法:

  1. 在load模块的最前面,加上from xxx import *,就可以随意使用save模块的内容了;
  2. 把建立好的神经网络模型也复制过来,跟正常的使用模块相比,不需要再加上实例化tudui=TuDui()这个步骤了。一般我们自己在工程中,会把模型放在一个文件夹或者模块里,不需要考虑这个问题

在这里插入图片描述

成功读取:
在这里插入图片描述

四、完整代码

1.保存页面model_save.py代码

import torch
import torchvision
from torch import nn

vgg16 = torchvision.models.vgg16(pretrained=False)

# 保存方式1--->保存模型结构+模型参数
torch.save(vgg16, "vgg16_method1.pth")

# 保存方式2--->保存模型参数
torch.save(vgg16.state_dict(), "vgg16_method2.pth") # 将该网络模型的参数保存成字典的形式


# 陷阱
class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.conv1 = nn.Conv2d(3, 64, kernel_size=3)

    def forward(self, x):
        x = self.conv1(x)
        return  x

tudui = Tudui()
torch.save(tudui, "tudui_method1.pth")

2.读取页面model_load.py代码

import torch
import torchvision
from torch import nn

# 读取方式1
# model = torch.load("vgg16_method1.pth")
# print(model)

# 读取方式2
vgg16 = torchvision.models.vgg16(pretrained=False)
vgg16.load_state_dict(torch.load("vgg16_method2.pth"))
#print(vgg16)


# 陷阱1

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.conv1 = nn.Conv2d(3, 64, kernel_size=3)

    def forward(self, x):
        x = self.conv1(x)
        return x

model = torch.load('tudui_method1.pth')
print(model)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
M25P16是一种快速、低功耗的串行外部Flash存储器。仿真模型指的是通过计算机软件对M25P16进行仿真和模拟,以便在没有实际硬件的情况下进行系统设计和测试。 M25P16仿真模型主要用于电路设计和嵌入式系统的开发过程中。通过对M25P16内部结构和工作原理的模拟,开发人员可以在电脑上对其进行功能验证、性能评估和软件开发。在设计阶段,可以通过仿真模型来验证设计的正确性和稳定性,避免在实际硬件上发现问题。同时,在软件开发阶段,可以使用仿真模型进行软件调试和性能测试。 M25P16仿真模型可以通过使用电路设计软件进行建立,其中包括对芯片内部电路、输入输出引脚、存储器操作和控制信号等进行建模。通过输入不同的测试数据或操作指令,仿真模型可以模拟M25P16的各种工作状态和功能。在仿真过程中,还可以模拟不同的工作环境和条件,以验证设备的可靠性和稳定性。 M25P16仿真模型的优势在于便捷性和经济性。它可以大大减少在实际硬件上进行测试和调试的时间和成本,提高开发效率。此外,仿真模型还能够提供更为精确的结果和数据,以帮助开发人员进行更深入的分析和优化。 总之,M25P16仿真模型是一种虚拟的软件模型,用于对M25P16外部Flash存储器进行功能验证、性能评估和软件开发。它在电路设计和嵌入式系统开发中具有重要的作用,极大地提高了开发效率和准确性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值