利用已经训练好的模型,给其提供输入,对输出进行判断。
CIFAR10有狗的分类,于是我们找一张狗的图片:
png格式的图片有四个通道,除了RGB外,还有一个透明度通道,所以调用:
image = image.convert('RGB')
打印图片相关信息:
from PIL import Image
image_path = './imgs/img.png'
image = Image.open(image_path)
image = image.convert('RGB')
print(image)
输出:
<PIL.Image.Image image mode=RGB size=305x174 at 0x25023F5A108>
大小为305*174,不符合我们网络的大小输入,查看Resize函数:
可以对PIL和tensor类型处理:
transform = torchvision.transforms.Compose([torchvision.transforms.Resize((32,32)),
torchvision.transforms.ToTensor()])
image = transform(image)
因为前面的网络模型采用torch.save()进行保存,所以这里导入时需要导入原定义的网路,因为原来网络采用GPU训练,所以在导入CPU时,要在load时指明:
from torch import nn
import torch
class Model(nn.Module):
def __init__(self):
super(Model, self).__init__()
self.model = nn.Sequential(
nn.Conv2d(3, 32, 5, 1, 2),
nn.MaxPool2d(2),
nn.Conv2d(32, 32, 5, padding=2),
nn.MaxPool2d(2),
nn.Conv2d(32, 64, 5, padding=2),
nn.MaxPool2d(2),
nn.Flatten(),
nn.Linear(1024, 64),
nn.Linear(64, 10),
)
def forward(self, x):
x = self.model(x)
return x
model = torch.load('model_9', map_location=torch.device('cpu'))
这时还不能直接将图片放入其中,因为网络输入应该为四维数据,第一个应该为batch_size,应该转换后在放入网络中:
image = torch.reshape(image, (1, 3, 32, 32))
model.eval()#模型为测试模式
with torch.no_grad():#可以省去一些不必要参数,节约一些内存
output = model(image)
print(output.argmax(1))
输出为:
tensor([5])
CIFAR10的target含义分别为:
输出正确。