torch笔记九 | 批训练

学自莫凡PYTHON

1.实验结果

一批5个数据(batch_size=5),15个数据总共被分成3批训练(step=3)。并将所有数据整体训练了3遍。

在这里插入图片描述

2.实验过程

# 1.导入模块
import torch
import torch.utils.data as Data  #Data是用来批训练的模块

# 2.一批训练5个数据
BATCH_SIZE = 5

# 3.使用torch构建数据集
x = torch.linspace(1, 15, 15)
y = torch.linspace(15, 1, 15)
# x用来数据训练,y用来误差计算
torch_dataset = Data.TensorDataset(x, y)

# 4.使用loader将训练变成一批一批的
loader = Data.DataLoader(
    dataset = torch_dataset,   # 导入数据集
    batch_size= BATCH_SIZE,    # 设置一批的样本数
    shuffle=False,             # 打乱数据顺序再分批进行下轮训练(False不打乱)
    num_workers=2              # 多线程,使用双进程提取数据
)

# 5.分批训练
# 将所有数据整体训练3次(epoch=3)
# 一批5个数据(batch_size=5),将15个数据分成3批训练(step=3)
# 使用print查看训练过程
for epoch in range(3):
    for step, (batch_x, batch_y) in enumerate(loader):
        print('Epoch:', epoch, '|step:', step,
              '|batch_x', batch_x.numpy(), '|batch_y', batch_y.numpy())

注意:如果所有数据的个数不能被batch_size整除,即step不为整数时,那么最后一批剩余几个就训练几个。比如在上面的实验中一批处理7个数据(batch_size=7),15个数据的分批情况就是:第一批7个,第二批7个,第三批1个。

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值