PyTorch入门实战教程笔记(二十三):卷积神经网络实现 1:Lenet5实现CIFAR10
CIFAR10数据集介绍
关于CIFAR-10数据集,可以访问它的官网进行下载:
http://www.cs.toronto.edu/~kriz/cifar.html。
CIFAR包含常见的10类物体的照片,照片的size 为32×32,每一类照片有6000张,所以一共6000万张照片,我们把6万张照片随机选出5万张照片作为training,剩余的1万张作为test.
CIFAR10代码实战准备
- 数据集的加载与使用,加载数据要用到的函数类:DataLoader、datasets、transforms,从对应的包中导入。过iter方法把DataLoader迭代器先得到,使用迭代器.next()方法得到一个batch,来验证数据的shape和label的shape,得到最终结果:x: torch.Size([32, 3, 32, 32]) label: torch.Size([32])。详细代码:
import torch
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision import transforms
def main():
batchsz = 32
#当前目录下新建文件夹'cifar',train = True,transform对数据进行变换,download=True自动下载数据集
cifar_train = datasets.CIFAR10('cifar', True, transform=transforms.Compose([
transforms.Resize((32, 32)),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225])
]), download=True)
#DataLoader方便一次加载多个,第一个参数为数据集cifar_train,第二个参数batch_size为每次批处理数量,
#根据显卡设置batch_size,不要太小。第三个参数shuffle为打乱,设置成True。
cifar_train = DataLoader(cifar_train, batch_size=batchsz, shuffle=True)
cifar_test = datasets.CIFAR10('cifar', False, transform=transforms.Compose([
transforms.Resize((32, 32)),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225])
]), download=True)
cifar_test = DataLoader(cifar_test, batch_size=batchsz, shuffle=True)
#通过iter方法把DataLoader迭代器先得到,使用迭代器.next()方法得到一个batch。
x, label = iter(cifar_train).next()
print('x:', x.shape, 'label:', label.shape)
if __name__ == '__main__':
main()
- 新建一个类lenet5,所有的pytorch的神经结构类都要继承自nn.Module这个类,使用from torch import nn,将其导入。新建类的初始化方法,调用super(Lenet5, self).init() ,调用类的初始化方法类初始化父类。接下来参考下图来写网络层。
我们使用nn.Sequential(),将网络结构包在里面,使用nn.Conv2d()新建一个卷积层。Subsampling可通过nn.MaxPool2d/nn.AvgPo