训练一个分类器

训练一个分类器
我们可以使用python包加载数据到一个numpy array中,然后转换为tensor。对于图片和视频,可以用PillowOpenCV包。pytorch也提供了torchvision包,它提供了对于常见数据集的加载器。
torchvision.datasetstorch.utils.data.DataLoader
正好记录下读取图片格式的问题。
OpenCVcv2.imread('a.jpg')读出来的图片格式为H,W,C,其中通道顺序为B,G,R,显示尺寸用imag.shape,读出来的图片数据类型是numpy.ndarray,每个像素值为0-255
PIL.Image.open('a.jpg')读出来是W,H,显示尺寸用image.size,读出来的数据类型是PIL.JpegImagePlugin.JpegImageFile,每个像素值为0-255
然后用torchvision.transforms.ToTensor()把这两种类型转换为tensor类型,每个像素的值变成0-1,就是每个像素的值直接除以255。

import torchvision.transforms as transforms
import cv2
from PIL import Image
image1=cv2.imread('a.jpg')
image2=Image.open('a.jpg')

print(type(image1),image1.shape)
print(type(image2),image2.size)
func=transforms.ToTensor()
a=func(image1)
b=func(image2)
print(a.shape,type(a))
print(b.shape,type(b))
print(image2.getpixel((0,0)))

结果:

<class 'numpy.ndarray'> (165, 220, 3)
<class 'PIL.JpegImagePlugin.JpegImageFile'> (220, 165)
torch.Size([3, 165, 220]) <class 'torch.Tensor'>
torch.Size([3, 165, 220]) <class 'torch.Tensor'>
(253, 253, 253)

官网教程用的是CIFAR10 dataset这个数据集,33232的尺寸。数据加载,定义模型,开始训练,保存模型,代码和讲解都在注释里。

import torch
import torchvision
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
import torchvision.transforms as transforms

transform = transforms.Compose(
    [transforms.ToTensor(),
     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
#Compose就是把几个变换按顺序拼接起来,以后就按照这个顺序来处理数据。
#transforms.Normalize()这个就是归一化,刚刚toTensor以后,
#每个像素的值由0-255变成了0-1,现在归一化就是每个值(设为x)
#变成x=(x-mean)/std,前面的三个0.5是三个通道的mean,后面是对
#应三个通道的std,于是每个像素值的范围就有0-1变成了(-1,1)

#下面这四个分别是训练集(指的是数据),训练加载器(用来加载训练数据的),测试集数据,测试集加载器。
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                        download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
                                          shuffle=True, num_workers=0)

testset = torchvision.datasets.CIFAR10(root='./data', train=False,
                                       download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
                                         shuffle=False, num_workers=0)

classes = ('plane', 'car', 'bird', 'cat',
           'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
  #定义模型,里面要有forward函数
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

net = Net()
#定义损失函数和优化器,就是用哪个损失函数和用哪种方法优化可学习参数。
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

for epoch in range(2):  #循环2次

    running_loss = 0.0
    #enumerate里面那个0是指定索引的起始值
    for i, data in enumerate(trainloader, 0):
        # get the inputs; data is a list of [inputs, labels]
        inputs, labels = data
        # zero the parameter gradients
        optimizer.zero_grad()
        # forward + backward + optimize
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
        # print statistics
        running_loss += loss.item()
        if i % 2000 == 1999:    # print every 2000 mini-batches
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 2000))
            running_loss = 0.0

print('Finished Training')
#下面是保存模型,net.state_dict,保存的是可学习的参数
#torch.save(model,PATH)保存的是整个模型的状态,
PATH = './my_net.pth'
torch.save(net.state_dict(), PATH)
#然后你看你的当前目录下就多了一个my_net.pth的文件

结果:

Files already downloaded and verified
Files already downloaded and verified
[1,  2000] loss: 2.235
[1,  4000] loss: 1.869
[1,  6000] loss: 1.722
[1,  8000] loss: 1.615
[1, 10000] loss: 1.575
[1, 12000] loss: 1.500
[2,  2000] loss: 1.443
[2,  4000] loss: 1.424
[2,  6000] loss: 1.354
[2,  8000] loss: 1.356
[2, 10000] loss: 1.332
[2, 12000] loss: 1.313
Finished Training

然后再测试集上测试

net = Net()
net.load_state_dict(torch.load(PATH))#加载刚刚存下的可学习参数
#若是加载整个模型,用net= torch.load(PATH)

下面是用测试集来测试效果了,把刚刚从net = Net()开始到最后的那部分代码注释掉,把下面这部分代码放进去:

net.load_state_dict(torch.load('my_net.pth'))

class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs, 1)
        c = (predicted == labels)
        for i in range(4):
            label = labels[i]
            class_correct[label] += c[i].item()
            class_total[label] += 1

for i in range(10):
    print('Accuracy of %5s : %2d %%' % (
        classes[i], 100 * class_correct[i] / class_total[i]))

结果:

Accuracy of plane : 59 %
Accuracy of   car : 80 %
Accuracy of  bird : 35 %
Accuracy of   cat : 35 %
Accuracy of  deer : 58 %
Accuracy of   dog : 56 %
Accuracy of  frog : 48 %
Accuracy of horse : 60 %
Accuracy of  ship : 45 %
Accuracy of truck : 48 %

以上是用cpu进行测试,如果用GPU测试,需要做以下改动:
在开始推理之前(即在with torch.no_grad():之前),加入

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
net.to(device)

如果装好了cuda,cudnn,就可以把模型放到GPU上了,以上代码就是把模型放到gpu上的。
光是模型还不行,还要把输入的数据放到GPU上,在每个循环里的outputs = net(images)之前,加入:

images=images.to(device)
labels=labels.to(device)

就把图片数据和标签数据也放进GPU中了。
然后再次运行代码,这个推理过程就是在GPU上运行了。

函数用法
下面把里面的几个函数用法纪录一下。
这一句:class_correct[label] += c[i].item()这里c的值是[True,False...],前面的是数字,怎么相加?我试了一下print(1+True,1+False)结果为2 1,原来是我基础太差了。

这一句_, predicted = torch.max(outputs, 1),这个函数是这样的:value , index= torch.max(input, dim),用来求输入tensor的最大值和最大值所在的位置。输入的参数有两个,第一个是tensor,第二个是指定求的是哪个维度的最大值,是行还是列。例子:

import torch
a=torch.tensor(([1,4],[2,3],[6,0]))
value1,index1=torch.max(a,0)
value2,index2=torch.max(a,1)
print(value1,index1)
print(value2,index2)
#结果如下:
tensor([6, 4]) tensor([2, 0])
tensor([4, 3, 6]) tensor([1, 1, 0])

理解这个维度有时候还是挺绕的,理解了就很清晰,不理解就一直搞不清。下面说说我的理解。
dim=0,说明是在第一个维度上求最大值,第一个维度里有三项,那就是在这三个里找最大的那个,但这三项里面有好几个数字怎么办,那就对应位置的相比呗,于是就有了:
三项里的第一个位置的数字1,2,6相比,6最大,6在第三项,索引值是2;
三项里的第二个位置的数字4,3,0相比,4最大,4在第一项,索引值是0;
所以输出为tensor([6, 4]) tensor([2, 0])
对于dim=1,那就是看第二个维度了。第二个维度有两项,那就是在这两项中求最大值,第一行的两项,最大值是4,4在这两项当中的第二项,索引值是1,同理第二行,第三行。于是就有了输出。
这个函数torch.max返回两项,前者是最大值的那个值,后者是最大值所在位置的索引值,返回的格式都是tensor格式。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值