Pytorch学习 day14(模型的验证步骤)

如何利用已经训练好的模型,验证它的结果,步骤如下:

步骤一:加载测试输入并更改为合适尺寸

  • 保存图片到指定文件夹下,注意是否为同级目录
  • 注意:返回上一级目录为“…/xxx"
  • 有时,我们自己的输入数据的尺寸不满足模型的输入尺寸,可以使用Resize() 进行变换
  • 如果为png格式的图片,则它除了RGB三通道外,还有一个透明度通道,需要使用convert(),来去除透明度通道
  • 代码如下:
import torch
from PIL import Image
from torchvision import transforms

image_path = 'images/dog.png'
image = Image.open(image_path)
print(image)    # <PIL.PngImagePlugin.PngImageFile image mode=RGBA size=216x157 at 0x22375C91010>
# 由于该png图片为RGBA四通道和216*157,需要将它转换为RGB三通道和32*32
image = image.convert('RGB')
# 使用compose函数将多个transforms组合在一起
transform = transforms.Compose([transforms.Resize((32, 32)), transforms.ToTensor()])
image = transform(image)
print(image.size())    # torch.Size([3, 32, 32])

步骤二:加载训练好的模型

  • 使用torch.load() 加载训练好的模型
  • 由于训练模型使用的是GPU,所以在输入数据时需要将数据转换为GPU的格式
  • 由于训练模型时的数据为4维,且第一维度为batch_size,所以需要使用reshape()将输入图片数据转换为4维
  • 代码如下:
tudui = torch.load('pth/module29.pth')
# 由于训练模型使用的是GPU,所以在输入数据时需要将数据转换为GPU的格式
image = image.cuda()
# 由于训练模型时的数据为4维,且第一维度为batch_size,所以需要将输入数据转换为4维
image = torch.reshape(image, (1, 3, 32, 32))

步骤三:开始测试

  • 将模型设置为测试模式
  • 使用with torch.no_grad(): 关闭梯度计算,提高计算效率
  • 使用argmas(1),让它横向输出概率最高的下标号
  • 代码如下:
# 将模型设置为测试模式
tudui.eval()
# 使用torch.no_grad()上下文管理器,关闭梯度计算
with torch.no_grad():
    output = tudui(image)
    print(output.argmax(1))

# 输出结果:
# <PIL.PngImagePlugin.PngImageFile image mode=RGBA size=130x138 at 0x187D30E17D0>
# torch.Size([3, 32, 32])
# tensor([5], device='cuda:0')
  • 模型的各类别下标号如下:
    在这里插入图片描述
  • 输入图片如下:
    请添加图片描述

注意事项

  • 当我们在没有GPU的环境中加载使用cuda训练的模型时,需要指定该模型的map_location,代码如下:
tudui = torch.load('pth/module29.pth', map_location='cpu')
  • 7
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
验证 PyTorch 模型的 ONNX 导出是否正确,您可以执行以下步骤: 1. 首先,使用 PyTorch模型导出为 ONNX 格式。这可以通过使用 `torch.onnx.export()` 函数来完成。例如: ```python import torch # 定义模型 class MyModel(torch.nn.Module): def __init__(self): super(MyModel, self).__init__() self.linear = torch.nn.Linear(10, 1) def forward(self, x): return self.linear(x) # 创建示例输入 input_data = torch.randn(1, 10) # 将模型导出为 ONNX 格式 torch.onnx.export(MyModel(), input_data, "my_model.onnx") ``` 2. 安装 ONNX 运行时。可以通过以下命令来安装: ``` pip install onnxruntime ``` 3. 加载 ONNX 模型并执行推理。可以使用 `onnxruntime.InferenceSession()` 函数加载 ONNX 模型,并使用 `session.run()` 函数执行推理。例如: ```python import onnxruntime # 加载 ONNX 模型 session = onnxruntime.InferenceSession("my_model.onnx") # 创建输入数据 input_data = { session.get_inputs()[0].name: input_data.numpy() } # 执行推理 output_data = session.run(None, input_data) # 输出结果 print(output_data) ``` 4. 验证输出结果是否正确。最后,您需要验证 ONNX 导出的模型的输出是否与 PyTorch 模型的输出相同。您可以使用 PyTorch 运行模型并计算输出,并将其与使用 ONNX 运行模型时得到的输出进行比较。例如: ```python # 使用 PyTorch 运行模型 model = MyModel() output_data_torch = model(input_data).detach().numpy() # 验证输出是否相同 assert np.allclose(output_data[0], output_data_torch) ``` 如果断言没有触发异常,那么说明 ONNX 导出的模型的输出与 PyTorch 模型的输出相同,验证成功。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

丿罗小黑

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值