!pip install d2l
%matplotlib inline
import torch
import torchvision
from torch.utils import data
from torchvision import transforms # 数据转换的库from d2l import torch as d2l
d2l.use_svg_display()# 提高清晰度
通过框架中的内置函数将Fashion-MNIST数据集下载并读取到内存中
# 通过ToTensor实例将图像数据从PIL类型变换为32位浮点数格式# 并除以255使得所有像素的数值均在0到1之间
trans = transforms.ToTensor()# 定义转换器
mnist_strain = torchvision.datasets.FashionMNIST(root="../data", train=True, transform=trans, download=True)# 将该数据集下载到上级目录点data下面../data,train=True是一个训练集,transform=trans得到的是转换后的张量而非图片
mnist_test = torchvision.datasets.FashionMNIST(root="../data", train=False, transform=trans, download=True)len(mnist_strain),len(mnist_test)
mnist_train[0][0].shape # [0][0]第一张图片的张量[0][1]第一张图片的标签# In general, mnist_strain[i][0] refers to the i-th image in the training dataset, # and mnist_strain[i][1] refers to the label of the i-th image.# 我们可以通过方括号[]来访问任意一个样本,下面获取第一个样本的图像和标签。# feature, label = mnist_train[0]