Pytorch 入门之数据处理 -- Dataset、Sampler、DataLoader

做个学习笔记。

迭代器概念:

迭代的意思类似于循环,每一次重复的过程被称为一次迭代的过程,而每一次迭代得到的结果会被用来作为下一次迭代的初始值。提供迭代方法的容器称为迭代器,通常接触的迭代器有序列(列表、元组和字符串)还有字典,这些数据结构都支持迭代操作。

实现迭代器的魔法方法有两个:__iter__(self)__next__(self)

一个容器如果是迭代器,那就必须实现 __iter__(self) 魔法方法,这个方法实际上是返回是一个迭代器(通常是迭代器本身)。接下来重点要实现的是 __next__(self) 魔法方法,因为它决定了迭代的规则。

数据类解读:

Dataset 读取图片变成可识别数据

Sampler 遍历数据

Dataloader 负责加载数据

联系:

  1. 设置 Dataset,将数据 data source 包装成 Dataset 类,暴露提取接口。
  2. 设置 Sampler,决定采样方式。我们是能从 Dataset 中提取元素了,还是需要设置 Sampler 告诉程序提取 Dataset 的策略。
  3. 将设置好的 Dataset 和 Sampler 传入 DataLoader,同时可以设置 shuffle, batch_size 等参数。使用 DataLoader 对象可以方便快捷地在数据集上遍历。

for 循环会调用 dataloader 的 __iter__(self)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
L-SGD(Local Stochastic Gradient Descent)是一种分布式优化算法,用于在分布式计算环境中进行大规模机器学习模型的训练。L-SGD算法将数据集分成多个子集,每个子集由一个独立的处理器处理。每个处理器使用随机梯度下降算法计算局部梯度,然后将这些局部梯度组合起来计算全局梯度。以下是用PyTorch实现L-SGD算法的示例代码: ```python import torch import torch.distributed as dist # Initialize distributed communication dist.init_process_group(backend='gloo') # Set up the data batch_size = 64 train_dataset = torch.utils.data.TensorDataset(X_train, y_train) train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset) train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=batch_size, sampler=train_sampler) # Set up the model model = MyModel() model = torch.nn.parallel.DistributedDataParallel(model) # Set up the optimizer optimizer = torch.optim.SGD(model.parameters(), lr=0.01) # Train the model for epoch in range(num_epochs): train_sampler.set_epoch(epoch) for batch_idx, (data, target) in enumerate(train_loader): optimizer.zero_grad() output = model(data) loss = loss_fn(output, target) loss.backward() optimizer.step() ``` 在这个示例代码中,我们首先初始化了分布式通信。然后我们设置了数据集、模型和优化器。在每个epoch中,我们通过设置sampler来确保每个处理器都处理数据集中的不同部分。在每个batch中,我们通过计算局部梯度来更新模型参数,并使用dist.all_reduce()函数将所有处理器计算出的梯度聚合成全局梯度。最后,我们通过optimizer.step()函数更新模型参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值