pytorch封装Dataset——封装一般的DataLoader与可迭代的DataLoader(pytorch Data学习五)

可迭代的DataLoader可以参考:pytorch构造可迭代的DataLoader,动态流式读取数据源,不担心内存炸裂(pytorch Data学习三)

一般DataLoader封装:

使用如下方法即可:

dataloader = DataLoader(dataset, batch_size=3)

# 使用方法
for data in dataloader:
    print(data)

示例代码:

import numpy as np
import torch
import torch.utils.data as Data


def train_auto_encoder(my_data: np.ndarray):
    train_tensor = torch.tensor(my_data).float()
    batch_size = 3

    train_loader = Data.DataLoader(
        dataset=Data.TensorDataset(train_tensor),  # 封装进Data.TensorDataset()类的数据,可以为任意维度
        batch_size=batch_size,  # 每块的大小
        shuffle=True,  # 要不要打乱数据 (打乱比较好)
        num_workers=2,  # 多进程(multiprocess)来读数据
        drop_last=True,  # 为了确保维度,如果最后一组数据不够batch的数量,则删除掉
    )
    for train_data in train_loader:
        print(train_data)


def main():
    data = np.random.random(size=(20, 5))
    train_auto_encoder(data)  # 拿正例数据进行训练


if __name__ == '__main__':
    main()

就可以得到结果:

[tensor([[0.1168, 0.8438, 0.1179, 0.2627, 0.9513],
        [0.3485, 0.6598, 0.9423, 0.5677, 0.6109],
        [0.1255, 0.1181, 0.3377, 0.8533, 0.8340]])]
[tensor([[0.4643, 0.7502, 0.9944, 0.7076, 0.3739],
        [0.2627, 0.2119, 0.1119, 0.7022, 0.5895],
        [0.1801, 0.7596, 0.0995, 0.0758, 0.2582]])]
        
.........
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

呆萌的代Ma

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值