Cifar-10数据集解析

cifar-10 数据集是机器学习入门第二个使用到的数据集合(第一个当然是MNIST),下面介绍一下如何解析。

1. cifar-10 简介

该数据集共有60000张彩色图像,图像大小是3通道的32*32,分为10个类,每类6000张图。这里面有50000张用于训练,构成了5个训练批,每一批10000张图;另外10000用于测试,单独构成一批。测试批的数据里,取自10类中的每一类,每一类随机取1000张。抽剩下的就随机排列组成了训练批。注意一个训练批中的各类图像并不一定数量相同,总的来看训练批,每一类都有5000张图。
数据的下载:共有三个版本,python,matlab,binary version 适用于C语言
python: http://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz

MATLAB: http://www.cs.toronto.edu/~kriz/cifar-10-matlab.tar.gz

bin: http://www.cs.toronto.edu/~kriz/cifar-10-binary.tar.gz

2. 数据解析,Python为例

cifar-10 数据以字典的形式存储,key为:dict_keys([b’batch_label’, b’labels’, b’data’, b’filenames’]),也就是说包含四个内容: batch_label,标签,图像数据,图片对应的文件名。通过一下函数加载:

def unPickle(file):
    import pickle as pk
    with open(file, 'rb') as f:
    d = pk.load(f, encoding='bytes')
    return d

得到数据:

data = unPickle('data_batch_1')
img = data[b'data']
img.shape  # 显示为(100003072

由于是3通道32*32的彩色图像,故每个图像大小为32*32*3=3072

3. 重建图像

将数组重建为彩色图像:

img_0 = img[0] #得到第一张图像
img_reshape = img_0.reshape(3,32,32)
import PIL.Image as image
import matplotlib.pyplot as plt
r = image.fromarray(img_reshape[0]).convert('L')
g = image.fromarray(img_reshape[1]).convert('L')
b = image.fromarray(img_reshape[2]).convert('L')
img_m = image.merge('RGB',(r,g,b))
plt.imshow(img_m)
plt.show()

重要说明

原数据是以数组存储,在应用中需要数据为什么形式(数据还是rgb图像)根据需求决定。

  • 4
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
当涉及到CIFAR-10数据集的代码解析时,通常是指用于训练和评估模型的代码。CIFAR-10是一个常用的图像分类数据集,其中包含10个类别的60000张32x32彩色图片。以下是一个简单的CIFAR-10代码解析示例,展示了如何使用PyTorch库来加载、预处理和训练模型: ```python import torch import torchvision import torchvision.transforms as transforms import torch.nn as nn import torch.optim as optim # 定义数据预处理操作 transform = transforms.Compose( [transforms.ToTensor(), transforms.Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])]) # 加载训练集和测试集 trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform) trainloader = torch.utils.data.DataLoader(trainset, batch_size=4, shuffle=True, num_workers=2) testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=transform) testloader = torch.utils.data.DataLoader(testset, batch_size=4, shuffle=False, num_workers=2) # 定义模型 class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 6, 5) self.pool = nn.MaxPool2d(2, 2) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16 * 5 * 5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = self.pool(F.relu(self.conv1(x))) x = self.pool(F.relu(self.conv2(x))) x = x.view(-1, 16 * 5 * 5) x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x net = Net() # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9) # 训练模型 for epoch in range(2): running_loss = 0.0 for i, data in enumerate(trainloader, 0): inputs, labels = data optimizer.zero_grad() outputs = net(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() running_loss += loss.item() if i % 2000 == 1999: print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 2000)) running_loss = 0.0 print('Finished Training') ``` 这段代码首先定义了一组数据预处理操作,然后使用`torchvision`库加载CIFAR-10训练集和测试集,并设置了数据加载器。接下来,定义了一个简单的卷积神经网络模型,并使用交叉熵损失函数和随机梯度下降优化器进行训练。在训练循环中,模型在每个小批量数据上进行前向传播、计算损失、反向传播和参数更新。最后打印出训练过程中的损失值,并完成模型的训练。 这只是一个简单的示例,实际上还可以进行更复杂的模型设计和训练策略。希望可以帮助到你理解CIFAR-10代码的解析过程!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值