1.实验结果
一批5个数据(batch_size=5),15个数据总共被分成3批训练(step=3)。并将所有数据整体训练了3遍。
2.实验过程
# 1.导入模块
import torch
import torch.utils.data as Data #Data是用来批训练的模块
# 2.一批训练5个数据
BATCH_SIZE = 5
# 3.使用torch构建数据集
x = torch.linspace(1, 15, 15)
y = torch.linspace(15, 1, 15)
# x用来数据训练,y用来误差计算
torch_dataset = Data.TensorDataset(x, y)
# 4.使用loader将训练变成一批一批的
loader = Data.DataLoader(
dataset = torch_dataset, # 导入数据集
batch_size= BATCH_SIZE, # 设置一批的样本数
shuffle=False, # 打乱数据顺序再分批进行下轮训练(False不打乱)
num_workers=2 # 多线程,使用双进程提取数据
)
# 5.分批训练
# 将所有数据整体训练3次(epoch=3)
# 一批5个数据(batch_size=5),将15个数据分成3批训练(step=3)
# 使用print查看训练过程
for epoch in range(3):
for step, (batch_x, batch_y) in enumerate(loader):
print('Epoch:', epoch, '|step:', step,
'|batch_x', batch_x.numpy(), '|batch_y', batch_y.numpy())
注意:如果所有数据的个数不能被batch_size整除,即step不为整数时,那么最后一批剩余几个就训练几个。比如在上面的实验中一批处理7个数据(batch_size=7),15个数据的分批情况就是:第一批7个,第二批7个,第三批1个。