MindSpore数据集加载-GeneratorDataset卡住、卡死

MindSpore可以自定义Python数据源,通过迭代该数据源构造数据集。有点类似PyTorch的DataLoader。

相关的API可以参考:mindspore.dataset.GeneratorDataset

自定义GeneratorDataset处理数据集时,混用numpy.ndarray  和 mindspore.Tensor 的操作会出现卡死

GeneratorDataset接口自定义的数据集,脚本如下:

原因分析:

猜测在自定义的数据处理中,存在numpy.ndarray -> mindspore.Tensor -> numpy.ndarray的混用过程,并且错误地使用numpy.array(Tensor)做转换,导致GIL锁得不到释放,GeneratorDataset不能正常工作。

打印堆栈分析后证明这个猜想,堆栈:

这个堆栈可以用py-spy这个工具获得,主要是为了看每一个进程目前运行的所在位置(神器啊!!!

GeneratorDataset处理数据卡住问题,一般为竞争GIL导致的死锁问题,推荐使用 py-spy dump -pid {PID}来定位。

解决办法:

  • 在GeneratorDataset的第一个入参`source`的定义时,涉及到Python function中全部使用numpy.ndarray来替代Tensor
  • 使用Tensor.asnumpy()方法替换numpy.array(Tensor)

对于这个问题,可以在代码的218行,把np.array(image)和np.array([record.label]) 换成 image.asnumpy()和record.label.asnumpy()

其他错误相关帖:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
您的问题是关于MindSpore框架中ResNet50模型在CIFAR-10数据集上的应用。 ResNet50是一个深度卷积神经网络模型,用于图像分类任务。CIFAR-10是一个经典的图像分类数据集,包含10个类别的60000张32x32的彩色图像。 在MindSpore框架中,您可以使用ResNet50模型对CIFAR-10数据集进行训练和测试。首先,您需要准备好CIFAR-10数据集并将其转换为MindSpore支持的数据格式。然后,您可以使用MindSpore提供的ResNet50模型进行训练和测试。 以下是一个示例代码片段,演示如何在MindSpore中使用ResNet50模型对CIFAR-10数据集进行训练和测试: ``` import mindspore.nn as nn import mindspore.ops.operations as P from mindspore import Model from mindspore import Tensor from mindspore import context from mindspore import dataset as ds from mindspore.train.callback import ModelCheckpoint, CheckpointConfig, LossMonitor from mindspore.train.serialization import load_checkpoint, load_param_into_net from mindspore.nn.metrics import Accuracy # Define the ResNet50 model class ResNet50(nn.Cell): def __init__(self, num_classes=10): super(ResNet50, self).__init__() self.resnet50 = nn.ResNet50(num_classes=num_classes) def construct(self, x): x = self.resnet50(x) return x # Load the CIFAR-10 dataset data_home = "/path/to/cifar-10/" train_data = ds.Cifar10Dataset(data_home, num_parallel_workers=8, shuffle=True) test_data = ds.Cifar10Dataset(data_home, num_parallel_workers=8, shuffle=False) # Define the hyperparameters learning_rate = 0.1 momentum = 0.9 epoch_size = 200 batch_size = 32 # Define the optimizer optimizer = nn.Momentum(filter(lambda x: x.requires_grad, resnet50.get_parameters()), learning_rate, momentum) # Define the loss function loss_fn = nn.SoftmaxCrossEntropyWithLogits(sparse=True, reduction='mean') # Define the model net = ResNet50() # Define the model checkpoint config_ck = CheckpointConfig(save_checkpoint_steps=1000, keep_checkpoint_max=10) ckpt_cb = ModelCheckpoint(prefix="resnet50", directory="./checkpoints/", config=config_ck) # Define the training dataset train_data = train_data.batch(batch_size, drop_remainder=True) # Define the testing dataset test_data = test_data.batch(batch_size, drop_remainder=True) # Define the model and train it model = Model(net, loss_fn=loss_fn, optimizer=optimizer, metrics={"Accuracy": Accuracy()}) model.train(epoch_size, train_data, callbacks=[ckpt_cb, LossMonitor()], dataset_sink_mode=True) # Load the trained model and test it param_dict = load_checkpoint("./checkpoints/resnet50-200_1000.ckpt") load_param_into_net(net, param_dict) model = Model(net, loss_fn=loss_fn, metrics={"Accuracy": Accuracy()}) result = model.eval(test_data) print("Accuracy: ", result["Accuracy"]) ``` 注意:在上述示例代码中,我们使用的是ResNet50网络的一个变体,该变体适用于CIFAR-10数据集的图像大小。如果您想使用标准的ResNet50网络,您需要调整输入图像的大小。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值