pytorch=1.4构建dataloader

pytorch=1.4构建dataloader

import torch 
import torch.utils.data as Data 
BATCH_SIZE = 3 # 批训练数据的个数
x = torch.linspace(1,10,10)   # 原始数据
y = torch.linspace(10,1,10)   # 标签
torch_dataset = Data.TensorDataset(x,y)   # 转换为torch能识别的Dataset
# 把上一步做成的数据集放入Data.DataLoader中
# 可以生成一个迭代器,从而我们可以方便的进行批处理
loader = Data.DataLoader(
            dataset=torch_dataset,
            batch_size=BATCH_SIZE, 
            shuffle = True,  # 要不要打乱数据
            num_workers=2,   # 多线程来读取数据
            )

# 可以用前面定义好的loader进行训练了
for epoch in range(5):
    i = 0
    for batch_x, batch_y in loader:
        i = i +1
        print("Epoch:{} | num:{} | batch_x:{} | batch_y:{}".format(epoch,i,batch_x,batch_y))
  
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值