基于CIFAR10的完整模型测试套路

23 篇文章 4 订阅
14 篇文章 1 订阅
该博客介绍了如何利用已训练好的CIFAR10分类模型对图像进行识别。首先,将PNG图片转换为RGB格式,然后调整其大小以适应网络输入。接着,通过 torchvision 库进行数据转换,将其转化为适合模型的张量。使用 torch.load 加载模型,并设置为评估模式。最后,将处理后的图片输入模型,得到预测输出,结果显示为狗的类别。
摘要由CSDN通过智能技术生成

        利用已经训练好的模型,给其提供输入,对输出进行判断。

        CIFAR10有狗的分类,于是我们找一张狗的图片:

png格式的图片有四个通道,除了RGB外,还有一个透明度通道,所以调用:

image = image.convert('RGB')

        打印图片相关信息:

from PIL import Image

image_path = './imgs/img.png'
image = Image.open(image_path)
image = image.convert('RGB')
print(image)

输出:

<PIL.Image.Image image mode=RGB size=305x174 at 0x25023F5A108>

        大小为305*174,不符合我们网络的大小输入,查看Resize函数:

 可以对PIL和tensor类型处理:

transform = torchvision.transforms.Compose([torchvision.transforms.Resize((32,32)),
                                            torchvision.transforms.ToTensor()])
image = transform(image)

        因为前面的网络模型采用torch.save()进行保存,所以这里导入时需要导入原定义的网路,因为原来网络采用GPU训练,所以在导入CPU时,要在load时指明:

from torch import nn
import torch

class Model(nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.model = nn.Sequential(
            nn.Conv2d(3, 32, 5, 1, 2),
            nn.MaxPool2d(2),
            nn.Conv2d(32, 32, 5, padding=2),
            nn.MaxPool2d(2),
            nn.Conv2d(32, 64, 5, padding=2),
            nn.MaxPool2d(2),
            nn.Flatten(),
            nn.Linear(1024, 64),
            nn.Linear(64, 10),
        )

    def forward(self, x):
        x = self.model(x)
        return x

model = torch.load('model_9', map_location=torch.device('cpu'))

        这时还不能直接将图片放入其中,因为网络输入应该为四维数据,第一个应该为batch_size,应该转换后在放入网络中:

image = torch.reshape(image, (1, 3, 32, 32))
model.eval()#模型为测试模式
with torch.no_grad():#可以省去一些不必要参数,节约一些内存
    output = model(image)

print(output.argmax(1))

输出为:

tensor([5])

        CIFAR10的target含义分别为:

 输出正确。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值