pytorch=1.4构建dataloader
import torch
import torch.utils.data as Data
BATCH_SIZE = 3 # 批训练数据的个数
x = torch.linspace(1,10,10) # 原始数据
y = torch.linspace(10,1,10) # 标签
torch_dataset = Data.TensorDataset(x,y) # 转换为torch能识别的Dataset
# 把上一步做成的数据集放入Data.DataLoader中
# 可以生成一个迭代器,从而我们可以方便的进行批处理
loader = Data.DataLoader(
dataset=torch_dataset,
batch_size=BATCH_SIZE,
shuffle = True, # 要不要打乱数据
num_workers=2, # 多线程来读取数据
)
# 可以用前面定义好的loader进行训练了
for epoch in range(5):
i = 0
for batch_x, batch_y in loader:
i = i +1
print("Epoch:{} | num:{} | batch_x:{} | batch_y:{}".format(epoch,i,batch_x,batch_y))