训练一个分类器
我们可以使用python包加载数据到一个numpy array中,然后转换为tensor。对于图片和视频,可以用Pillow
和OpenCV
包。pytorch也提供了torchvision
包,它提供了对于常见数据集的加载器。
用torchvision.datasets
和torch.utils.data.DataLoader
正好记录下读取图片格式的问题。
用OpenCV
的cv2.imread('a.jpg')
读出来的图片格式为H,W,C
,其中通道顺序为B,G,R
,显示尺寸用imag.shape
,读出来的图片数据类型是numpy.ndarray
,每个像素值为0-255
。
用PIL.Image.open('a.jpg')
读出来是W,H
,显示尺寸用image.size
,读出来的数据类型是PIL.JpegImagePlugin.JpegImageFile
,每个像素值为0-255
。
然后用torchvision.transforms.ToTensor()
把这两种类型转换为tensor
类型,每个像素的值变成0-1
,就是每个像素的值直接除以255。
import torchvision.transforms as transforms
import cv2
from PIL import Image
image1=cv2.imread('a.jpg')
image2=Image.open('a.jpg')
print(type(image1),image1.shape)
print(type(image2),image2.size)
func=transforms.ToTensor()
a=func(image1)
b=func(image2)
print(a.shape,type(a))
print(b.shape,type(b))
print(image2.getpixel((0,0)))
结果:
<class 'numpy.ndarray'> (165, 220, 3)
<class 'PIL.JpegImagePlugin.JpegImageFile'> (220, 165)
torch.Size([3, 165, 220]) <class 'torch.Tensor'>
torch.Size([3, 165, 220]) <class 'torch.Tensor'>
(253, 253, 253)
官网教程用的是CIFAR10 dataset这个数据集,33232的尺寸。数据加载,定义模型,开始训练,保存模型,代码和讲解都在注释里。
import torch
import torchvision
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
import torchvision.transforms as transforms
transform = transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
#Compose就是把几个变换按顺序拼接起来,以后就按照这个顺序来处理数据。
#transforms.Normalize()这个就是归一化,刚刚toTensor以后,
#每个像素的值由0-255变成了0-1,现在归一化就是每个值(设为x)
#变成x=(x-mean)/std,前面的三个0.5是三个通道的mean,后面是对
#应三个通道的std,于是每个像素值的范围就有0-1变成了(-1,1)
#下面这四个分别是训练集(指的是数据),训练加载器(用来加载训练数据的),测试集数据,测试集加载器。
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
shuffle=True, num_workers=0)
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
shuffle=False, num_workers=0)
classes = ('plane', 'car', 'bird', 'cat',
'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
#定义模型,里面要有forward函数
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()
#定义损失函数和优化器,就是用哪个损失函数和用哪种方法优化可学习参数。
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
for epoch in range(2): #循环2次
running_loss = 0.0
#enumerate里面那个0是指定索引的起始值
for i, data in enumerate(trainloader, 0):
# get the inputs; data is a list of [inputs, labels]
inputs, labels = data
# zero the parameter gradients
optimizer.zero_grad()
# forward + backward + optimize
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
# print statistics
running_loss += loss.item()
if i % 2000 == 1999: # print every 2000 mini-batches
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0
print('Finished Training')
#下面是保存模型,net.state_dict,保存的是可学习的参数
#torch.save(model,PATH)保存的是整个模型的状态,
PATH = './my_net.pth'
torch.save(net.state_dict(), PATH)
#然后你看你的当前目录下就多了一个my_net.pth的文件
结果:
Files already downloaded and verified
Files already downloaded and verified
[1, 2000] loss: 2.235
[1, 4000] loss: 1.869
[1, 6000] loss: 1.722
[1, 8000] loss: 1.615
[1, 10000] loss: 1.575
[1, 12000] loss: 1.500
[2, 2000] loss: 1.443
[2, 4000] loss: 1.424
[2, 6000] loss: 1.354
[2, 8000] loss: 1.356
[2, 10000] loss: 1.332
[2, 12000] loss: 1.313
Finished Training
然后再测试集上测试
net = Net()
net.load_state_dict(torch.load(PATH))#加载刚刚存下的可学习参数
#若是加载整个模型,用net= torch.load(PATH)
下面是用测试集来测试效果了,把刚刚从net = Net()
开始到最后的那部分代码注释掉,把下面这部分代码放进去:
net.load_state_dict(torch.load('my_net.pth'))
class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs, 1)
c = (predicted == labels)
for i in range(4):
label = labels[i]
class_correct[label] += c[i].item()
class_total[label] += 1
for i in range(10):
print('Accuracy of %5s : %2d %%' % (
classes[i], 100 * class_correct[i] / class_total[i]))
结果:
Accuracy of plane : 59 %
Accuracy of car : 80 %
Accuracy of bird : 35 %
Accuracy of cat : 35 %
Accuracy of deer : 58 %
Accuracy of dog : 56 %
Accuracy of frog : 48 %
Accuracy of horse : 60 %
Accuracy of ship : 45 %
Accuracy of truck : 48 %
以上是用cpu进行测试,如果用GPU测试,需要做以下改动:
在开始推理之前(即在with torch.no_grad():
之前),加入
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
net.to(device)
如果装好了cuda,cudnn,就可以把模型放到GPU上了,以上代码就是把模型放到gpu上的。
光是模型还不行,还要把输入的数据放到GPU上,在每个循环里的outputs = net(images)
之前,加入:
images=images.to(device)
labels=labels.to(device)
就把图片数据和标签数据也放进GPU中了。
然后再次运行代码,这个推理过程就是在GPU上运行了。
函数用法
下面把里面的几个函数用法纪录一下。
这一句:class_correct[label] += c[i].item()
这里c
的值是[True,False...]
,前面的是数字,怎么相加?我试了一下print(1+True,1+False)
结果为2 1
,原来是我基础太差了。
这一句_, predicted = torch.max(outputs, 1)
,这个函数是这样的:value , index= torch.max(input, dim)
,用来求输入tensor
的最大值和最大值所在的位置。输入的参数有两个,第一个是tensor
,第二个是指定求的是哪个维度的最大值,是行还是列。例子:
import torch
a=torch.tensor(([1,4],[2,3],[6,0]))
value1,index1=torch.max(a,0)
value2,index2=torch.max(a,1)
print(value1,index1)
print(value2,index2)
#结果如下:
tensor([6, 4]) tensor([2, 0])
tensor([4, 3, 6]) tensor([1, 1, 0])
理解这个维度有时候还是挺绕的,理解了就很清晰,不理解就一直搞不清。下面说说我的理解。
dim=0,说明是在第一个维度上求最大值,第一个维度里有三项,那就是在这三个里找最大的那个,但这三项里面有好几个数字怎么办,那就对应位置的相比呗,于是就有了:
三项里的第一个位置的数字1,2,6相比,6最大,6在第三项,索引值是2;
三项里的第二个位置的数字4,3,0相比,4最大,4在第一项,索引值是0;
所以输出为tensor([6, 4]) tensor([2, 0])
对于dim=1
,那就是看第二个维度了。第二个维度有两项,那就是在这两项中求最大值,第一行的两项,最大值是4,4在这两项当中的第二项,索引值是1,同理第二行,第三行。于是就有了输出。
这个函数torch.max
返回两项,前者是最大值的那个值,后者是最大值所在位置的索引值,返回的格式都是tensor
格式。