PyTorch安装测试训练建自己的数据集


前言

由于计算机视觉这门课程的作业需要,本着萌新探索的态度,对Pytorch进行学习。


提示:以下是本篇文章正文内容,大家可以跟着我一起来学,里面都加了一些注解,有不妥之处敬请指正。

一、PyTorch是什么?

PyTorch是一个开源的Python机器学习库,基于Torch,用于自然语言处理等应用程序。
2017年1月,由Facebook人工智能研究院(FAIR)基于Torch推出了PyTorch。它是一个基于Python的可续计算包,提供两个高级功能:1、具有强大的GPU加速的张量计算(如NumPy)。2、包含自动求导系统的深度神经网络。
目前我们课程的要求是自制数据集实现分类。


二、PyTorch环境搭建

1.设备要求

首先你需要有一台PC,如果有NVIDA的显卡那最好不过。

2.安装Pytorch

前往官网来进行安装代码的获取:

在这里插入图片描述
注意:此处的CUDA我不选,一是因为不想加入GPU,二是不加CUDA下载起来真的很快(因为我只是做个小test)

conda install pytorch torchvision torchaudio cpuonly -c pytorch

此处为安装的命令

3.验证PyTorch

在终端处输入命令:

python
import torch
torch.Tensor()

没有问题的话,就可以正常继续下一步了!


二、CIFAR10测试

首先跟着官网的教程,来一个60分钟闪电战,利用CIFAR10数据集做一次训练分类器简单的尝试

1、关于CIFAR10

在本教程中,我们将使用CIFAR10数据集。它具有以下类别:“飞机”,“汽车”,“鸟”,“猫”,“鹿”,“狗”,“青蛙”,“马”,“船”,“卡车”。CIFAR-10中的图像尺寸为3x32x32,即尺寸为32x32像素的3通道彩色图像。

2、训练图像分类器 Training an image classifier

我们将按顺序执行以下步骤:

1、使用以下命令加载和标准化CIFAR10训练和测试数据集 torchvision
2、定义卷积神经网络
3、定义损失函数
4、根据训练数据训练网络
5、在测试数据上测试网络

(1)加载并归一化CIFAR10 Loading and normalizing CIFAR10

使用torchvision,加载CIFAR10。
加载CIFAR10的数据集和训练集

import torchvision
import torchvision.transforms as transforms

transform = transforms.Compose(
    [transforms.ToTensor(),
     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
#torchvision数据集的输出是[0,1]范围的PILImage图像。我们将它们转换为归一化范围[-1,1]的张量

trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                        download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
                                          shuffle=True, num_workers=2)
#如果报错[Errno 32] Broken pipe,把两个num_workers=0
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
                                       download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
                                         shuffle=False, num_workers=2)

classes = ('plane', 'car', 'bird', 'cat',
           'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

运行以上代码,就会自己开始加载CIFAR10的数据集。(不过是真的很慢,我都佛了。。)
在这里插入图片描述
我们可以看看训练图像有什么东西:
把该代码加入之前的代码中:

import matplotlib.pyplot as plt
import numpy as np

def imshow(img):
    img = img / 2 + 0.5     # unnormalize
    npimg = img.numpy()
    plt.imshow(np.transpose(npimg, (1, 2, 0)))
    plt.show()


# get some random training images
dataiter = iter(trainloader)
images, labels = dataiter.next()

# show images
imshow(torchvision.utils.make_grid(images))
# print labels
print(' '.join('%5s' % classes[labels[j]] for j in range(4)))

就可以看到训练图像是什么了
在这里插入图片描述

(2)定义卷积神经网络 Define a Convolutional Neural Network

我们定义一个神经网络,其通道数为三

import torch.nn as nn
import torch.nn.functional as F

#我们输入的CIFAR10为3*32*32,即3通道32*32像素,四维张量[N, C, H, W] c=3 H=32 W=32(数量,通道,高、宽)

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()   
        self.conv1 = nn.Conv2d(3, 6, 5)  
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
    	#relu是激活函数ReLU,防止梯度消失
        x = self.pool(F.relu(self.conv1(x)))
        #conv1 通道由3变为6通道 用了5*5的卷积核,输出图像应为6*28*28
        #pool 最大值池化,卷积核2*2,步长2,输出图像为6*14*14
        x = self.pool(F.relu(self.conv2(x)))
        #conv2 卷积核为5*5,输出图像为16*10*10
        #pool 最大值池化,卷积核2*2,步长2,输出图像为16*5*5
        x = x.view(-1, 16 * 5 * 5)
        #.view()会将Tensor转成特定维数空间,-1:全部元素,分配为16*5*5,将四维张量转换为二维张量之后,才能作为全连接层的输入,此时x.shape应为
        
        #矢量化,将二维特征图转化成一维的一个向量
        x = F.relu(self.fc1(x))
      	#120全连接 把(n,400)变为(n,120)
        x = F.relu(self.fc2(x))
        #84全连接,把(n,120)变为(n,84)
        x = self.fc3(x)
        #10全连接
        return x


net = Net()

(3)定义损失函数和优化器 Define a Loss function and optimizer

import torch.optim as optim

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

(4)训练网络 Train the network

for epoch in range(2):  # loop over the dataset multiple times

    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        # get the inputs; data is a list of [inputs, labels]
        inputs, labels = data

        # zero the parameter gradients
        optimizer.zero_grad()

        # forward + backward + optimize
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        # print statistics
        running_loss += loss.item()
        if i % 2000 == 1999:    # print every 2000 mini-batches
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 2000))
            running_loss = 0.0

print('Finished Training')

完成后的效果如图
在这里插入图片描述
可以通过下列代码来保存训练模型:

PATH = './cifar_net.pth'
torch.save(net.state_dict(), PATH)
print('Finished Saving')

(5)在测试数据上测试网络 Test the network on the test data

#第一步。让我们显示测试集中的图像
dataiter = iter(testloader)
images, labels = dataiter.next()

# 输出图像
imshow(torchvision.utils.make_grid(images))   #此处我出现了错误,就把他注释掉了继续运行
print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4)))

net = Net()
net.load_state_dict(torch.load(PATH)) #加载保存的模型

# 好的,现在让我们看看神经网络对以上这些示例的看法:
outputs = net(images)

#输出是10类的能量。一个类别的能量越高,网络就认为该图像属于特定类别。因此,让我们获得最高能量的指数:
_, predicted = torch.max(outputs, 1)

print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]
                              for j in range(4)))

#看一下网络在整个数据集上的表现
correct = 0
total = 0
with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
    100 * correct / total))

#哪些类的表现良好,哪些类的表现不佳:
class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs, 1)
        c = (predicted == labels).squeeze()
        for i in range(4):
            label = labels[i]
            class_correct[label] += c[i].item()
            class_total[label] += 1


for i in range(10):
    print('Accuracy of %5s : %2d %%' % (
        classes[i], 100 * class_correct[i] / class_total[i]))

此处为最后的输出结果图:
可以看出训练集正确率有52%(如果不训练,按照10组中1组应该是10%,网络还是学到了)
在这里插入图片描述
下列为官方给出的结果,可以看出无论是哪种,ship的正确率都是最高的。
在这里插入图片描述
PS:以上就是根据官方教程做的一次小test,接下来要尝试自己制作数据集训练集,在此基础上进行二分类的识别以及精度验证。


三、制作自己的数据集

1、数据收集(通过爬虫)

做数据集需要自己搜集数据,我得想法是通过爬虫来爬取图片数据,由于是二分类的任务,我选择爬取了玫瑰和牡丹的图片,以此作为数据集和训练集。
实现方法参考的是百度图片爬虫
在此不做过多赘述,大家可以去该文章查看。
分别爬取了玫瑰300张和牡丹300张照片,并对其中的数据进行筛选。

2、划分数据集

针对我们所收集到的图片,我们需要把数据划分为数据集和训练集
参考了Pytorch将数据集划分为训练集、验证集和测试集这篇文章,
首先建立了两个文件夹src_data和target_data两个文件夹,将存放两个类别图片的文件夹放入src,然后运行代码,对数据进行划分。
分别得到了训练集、测试集。(我不需要验证集)
在这里插入图片描述

3、训练模型+精度验证

对PyTorch进行了修改之后即可得到所需。
其中要注意的是,对于数据的引用请使用ImageFolder

trainset = datasets.ImageFolder(root=r'target_data\train', 
                                     transform=transform)

最后的结果精度如下
在这里插入图片描述

总结

非常感谢各位的阅读,后续数据集的篇章写的简略了一些,有问题的可以提出来,谢谢观看!

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值