图像分类数据集(Fashion-MNIST)

图像分类数据集(Fashion-MNIST)

1. 获取数据集

# 导入本节需要的包或模块
%matplotlib inline
from IPython import display
from matplotlib import pyplot as plt
from mxnet.gluon import data as gdata
import sys
import time
# 通过参数train来指定获取训练数据集或测试数据集(testing data set)
mnist_train = gdata.vision.FashionMNIST(train=True)
mnist_test = gdata.vision.FashionMNIST(train=False)
Downloading C:\Users\林景\AppData\Roaming\mxnet\datasets\fashion-mnist\train-images-idx3-ubyte.gz from https://apache-mxnet.s3-accelerate.dualstack.amazonaws.com/gluon/dataset/fashion-mnist/train-images-idx3-ubyte.gz...
Downloading C:\Users\林景\AppData\Roaming\mxnet\datasets\fashion-mnist\train-labels-idx1-ubyte.gz from https://apache-mxnet.s3-accelerate.dualstack.amazonaws.com/gluon/dataset/fashion-mnist/train-labels-idx1-ubyte.gz...
Downloading C:\Users\林景\AppData\Roaming\mxnet\datasets\fashion-mnist\t10k-images-idx3-ubyte.gz from https://apache-mxnet.s3-accelerate.dualstack.amazonaws.com/gluon/dataset/fashion-mnist/t10k-images-idx3-ubyte.gz...
Downloading C:\Users\林景\AppData\Roaming\mxnet\datasets\fashion-mnist\t10k-labels-idx1-ubyte.gz from https://apache-mxnet.s3-accelerate.dualstack.amazonaws.com/gluon/dataset/fashion-mnist/t10k-labels-idx1-ubyte.gz...

训练集中和测试集中的每个类别的图像数分别为6,000和1,000。因为有10个类别,所以训练集和测试集的样本数分别为60,000和10,000。

len(mnist_train), len(mnist_test)
(60000, 10000)
# 获取第⼀个样本的图像和标签
feature, label = mnist_train[0]

变量feature对应⾼和宽均为28像素的图像。每个像素的数值为0到255之间8位⽆符号整数(uint8)。它使⽤三维的NDArray存储。其中的最后⼀维是通道数。因为数据集中是灰度图像,所以通道数为1。

# 图像的标签使⽤NumPy的标量表⽰
label, type(label), label.dtype
(2, numpy.int32, dtype('int32'))

Fashion-MNIST中⼀共包括了10个类别,分别为t-shirt(T恤)、trouser(裤⼦)、pullover(套衫)、dress(连⾐裙)、coat(外套)、sandal(凉鞋)、shirt(衬衫)、sneaker(运动鞋)、bag(包)和ankleboot(短靴)。

# 将数值标签转换成相应的文本标签
def get_fashion_mnist_labels(labels):
    text_labels = ['t-shirt', 'trouser', 'pullover', 'dress', 'coat','sandal', 'shirt', 'sneaker', 'bag', 'ankle boot']
    return [text_labels[int(i)] for i in labels]
from utils import use_svg_display # 导入封装好的函数
# 定义⼀个可以在⼀⾏⾥画出多张图像和对应标签的函数。
def show_fashion_mnist(images, labels):
    use_svg_display()
    # 这⾥的_表⽰我们忽略(不使⽤)的变量
    _, figs = plt.subplots(1, len(images), figsize=(12, 12))
    for f, img, lbl in zip(figs, images, labels):
        f.imshow(img.reshape((28,28)).asnumpy())
        f.set_title(lbl)
        f.axes.get_xaxis().set_visible(False)
        f.axes.get_yaxis().set_visible(False)
# 训练数据集中前9个样本的图像内容和⽂本标签
X, y = mnist_train[0:9]
show_fashion_mnist(X, get_fashion_mnist_labels(y))


在这里插入图片描述

2. 读取小批量

直接创建DataLoader实例。该实例每次读取⼀个样本数为batch_size的小批量数据。这⾥的批量⼤小batch_size是⼀个超参数。

在实践中,数据读取经常是训练的性能瓶颈,特别当模型较简单或者计算硬件性能较⾼
时。Gluon的DataLoader中⼀个很⽅便的功能是允许使⽤多进程来加速数据读取(暂不⽀
持Windows操作系统)。这⾥我们通过参数num_workers来设置4个进程读取数据。

此外,我们通过ToTensor实例将图像数据从uint8格式变换成32位浮点数格式,并除以255使得所有像素的数值均在0到1之间。ToTensor实例还将图像通道从最后⼀维移到最前⼀维来⽅便之后介绍的卷积神经⽹络计算。通过数据集的transform_first函数,我们将ToTensor的变换应⽤在每个数据样本(图像和标签)的第⼀个元素,即图像之上。

batch_size = 256
transformer = gdata.vision.transforms.ToTensor()
if sys.platform.startswith('win'):
    num_workers = 0 # 0表示不用额外的进程来加速读取数据
else:
    num_workers = 4

train_iter = gdata.DataLoader(mnist_train.transform_first(transformer), batch_size, shuffle=True,num_workers=num_workers)
test_iter = gdata.DataLoader(mnist_test.transform_first(transformer), batch_size, shuffle=False, num_workers=num_workers)
# 查看读取一遍训练数据的时间
start = time.time()
for X, y in train_iter:
    continue
print('%.2f sec'% (time.time() - start))
4.57 sec
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
本文将介绍如何使用softmax回归对Fashion-MNIST图像数据集进行预测。 Fashion-MNIST是一个替代MNIST手写数字集的图像数据集,用于训练和测试机器学习模型。它包含了10个类别的70,000张灰度图像,每个图像的大小为28x28像素。这些图像涵盖了从衣服、鞋子到手提包等各种物品。 为了使用softmax回归对Fashion-MNIST图像数据集进行预测,我们需要完成以下步骤: 1.加载Fashion-MNIST数据集 首先,我们需要下载并加载Fashion-MNIST数据集。可以使用以下代码块下载和加载数据集: ``` import tensorflow as tf from tensorflow import keras (x_train, y_train), (x_test, y_test) = keras.datasets.fashion_mnist.load_data() ``` 2.预处理数据集 接下来,我们需要对数据集进行预处理。我们需要将每个图像的像素值缩放到0到1之间,并将标签转换为独热编码。可以使用以下代码块完成预处理: ``` x_train = x_train.astype('float32') / 255.0 x_test = x_test.astype('float32') / 255.0 y_train = keras.utils.to_categorical(y_train) y_test = keras.utils.to_categorical(y_test) ``` 3.构建模型 接下来,我们需要构建一个softmax回归模型。我们可以使用一个全连接层作为模型的唯一层,并将softmax函数应用于输出。可以使用以下代码块构建模型: ``` model = keras.Sequential([ keras.layers.Flatten(input_shape=(28, 28)), keras.layers.Dense(10, activation='softmax') ]) ``` 4.编译模型 接下来,我们需要编译模型。我们可以使用categorical_crossentropy作为损失函数,并使用adam优化器进行优化。可以使用以下代码块编译模型: ``` model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) ``` 5.训练模型 接下来,我们需要训练模型。我们可以使用fit方法来训练模型,并指定训练数据、批量大小、训练迭代次数和验证数据。可以使用以下代码块训练模型: ``` model.fit(x_train, y_train, batch_size=128, epochs=10, validation_data=(x_test, y_test)) ``` 6.评估模型 最后,我们需要评估模型。我们可以使用evaluate方法来评估模型,并指定测试数据。可以使用以下代码块评估模型: ``` loss, accuracy = model.evaluate(x_test, y_test) print('Test accuracy:', accuracy) ``` 完整代码如下: ``` import tensorflow as tf from tensorflow import keras (x_train, y_train), (x_test, y_test) = keras.datasets.fashion_mnist.load_data() x_train = x_train.astype('float32') / 255.0 x_test = x_test.astype('float32') / 255.0 y_train = keras.utils.to_categorical(y_train) y_test = keras.utils.to_categorical(y_test) model = keras.Sequential([ keras.layers.Flatten(input_shape=(28, 28)), keras.layers.Dense(10, activation='softmax') ]) model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) model.fit(x_train, y_train, batch_size=128, epochs=10, validation_data=(x_test, y_test)) loss, accuracy = model.evaluate(x_test, y_test) print('Test accuracy:', accuracy) ``` 通过以上步骤,我们就可以使用softmax回归对Fashion-MNIST图像数据集进行预测。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

DeeGLMath

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值