如何处理数据集加载多进程错误?

在MindSpore的数据集加载接口中,可以启动多进程模式加快数据处理速度,具体有2个API支持:

mindspore.dataset.GeneratorDataset

链接:https://www.mindspore.cn/docs/api/zh-CN/master/api_python/dataset/mindspore.dataset.GeneratorDataset.html#mindspore.dataset.GeneratorDataset

1mindspore.dataset.GeneratorDataset(source, column_names=None, column_types=None, schema=None, num_samples=None, num_parallel_workers=1, shuffle=None, sampler=None, num_shards=None, shard_id=None, python_multiprocessing=True, max_rowsize=6)

mindspore.dataset.m‍ap

链接:https://www.mindspore.cn/docs/api/zh-CN/master/api_python/dataset/mindspore.dataset.GeneratorDataset.html#mindspore.dataset.GeneratorDataset.map

1map(operations, input_columns=None, output_columns=None, column_order=None, num_parallel_workers=None, python_multiprocessing=False, cache=None, callbacks=None, max_rowsize=16, offload=None)

这两个API中,与多进程启动相关的参数是python_multiprocessing和max_rowsize。

python_multiprocessing决定是否启用多进程模式加快数据处理速度,而max_rowsize用于配置多进程模式下共享内存的大小,属于高级用法。

一般来说,只需要将python_multiprocessing设置为True在大多数情况下就可以使用。

如果打开了多进程模式,可能会碰到以下的错误,这里总结了一些常见的错误和解决办法。

错误1

核心报错信息是This might be caused by insufficient shm, and the recommended shm size is at least 5 GB.

原因:

系统可用的共享内存太小,可以通过df -h查看共享内存的大小,如下示例有500G的共享内存,妥妥的够用啦。

解决办法:

如果发现自身系统的 /dev/shm 不足5G,那确实会导致这个错误,有2个解决办法

  • 关闭多进程模式,即设置python_multiprocessing=False。这样就会采用多线程模式进行加速,同样也会有一定的加速效果,也可以调节num_parallel_workers增加线程/进程数,以提高整体的数据处理效率。

  • 申请更多的共享内存,可以参考博客上教程调整共享内存,如

     https://blog.csdn.net/Sunny_Future/article/details/100569637

错误2

核心报错信息是 OSError: [Errno 24] Too many open files.

这个错误可能会在非root用户下使用 多进程模式时触发

原因:

有几个可能的原因

  • 如上一个错误所述,共享内存不足5G,导致无法使用。

  • 如果发现/dev/shm超过5G,还是这个错误,则可能是非root用户可用资源的限制,可以通过ulimit -a查看非root用户可用资源

可以看到当前用户的可用open files数目只有2,这样很大程度就会抛出上述错误。

解决办法:

通过ulimit -a查看open files的数量,然后通过ulimit -n设置成较大的数值,如

重新启动训练就可以啦。

错误3

核心报错信息是 Insufficient shared memory available. Required: xxxxx, Available: xxxxx.

这个错误可能会在共享内存不够/处理的数据块过大时触发

原因:

  • 可能有其他进程也在使用共享内存,使用df -h查看 /dev/shm 当前的可用大小

  • 当前正在处理的数据非常大,导致其占用了过多的共享内存,使得共享内存不够用了

解决办法:

  • 在允许的范围内,尽可能增大共享内存的大小,如 

    https://blog.csdn.net/Sunny_Future/article/details/100569637

  • 检查数据处理时,是否正在处理过大的数据导致内存占用太多

  • 通过mindspore.dataset.config.set_prefetch_size()减少数据管道中缓存的数据量

  • 实在不行,通过mindspore.dataset.config.set_enable_shared_mem(False)关掉共享内存

欢迎投稿

欢迎大家踊跃投稿,有想投稿技术干货、项目经验等分享的同学,可以添加MindSpore官方小助手:小猫子(mindspore0328)的微信,告诉猫哥哦!

昇思MindSpore官方交流QQ群 : 486831414群里有很多技术大咖助力答疑!

MindSpore官方资料

GitHub : https://github.com/mindspore-ai/mindspore

Gitee : https : //gitee.com/mindspore/mindspore

官方QQ群 : 486831 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spring Batch 是一个用于批处理海量数据的开源框架。它提供了一种简单且灵活的方式来处理大量的数据,帮助开发人员根据自定义的规则和逻辑进行批量处理任务。 在处理海量数据时,Spring Batch 提供了以下特性: 1. 分批处理:Spring Batch 可以将大数据集分成多个小批次进行处理,避免一次性加载全部数据,降低了内存的压力。 2. 事务管理:Spring Batch 支持事务管理,可以保证数据的一致性和完整性,确保批处理任务的可靠性。 3. 异常处理:Spring Batch 提供了灵活的异常处理机制,可以捕捉并处理异常,保证任务的顺利执行。 4. 监控和报告:Spring Batch 提供了可视化的监控和报告功能,可以实时查看任务的执行进度和状态,方便开发人员进行调试和排错。 5. 多线程处理:Spring Batch 支持多线程处理数据,可以并发执行多个任务,提高数据处理的效率。 6. 可扩展性:Spring Batch 提供了丰富的扩展点和接口,可以根据业务需求进行定制和扩展,实现个性化的数据处理逻辑。 总之,Spring Batch 是一个强大的批处理框架,它能够帮助开发人员高效地处理海量数据,具有良好的可靠性、可扩展性和灵活性,是处理大规模数据任务的不错选择。 ### 回答2: Spring Batch是一个用于大规模数据处理的开源框架。它提供了一种有效的方式来处理海量的数据,以实现批处理任务的分解和并发执行。 首先,Spring Batch提供了丰富的组件来管理和控制批处理任务。这些组件包括job、step、tasklet和chunk等,它们可以帮助我们定义和配置批处理任务的各个环节,从而使得海量数据处理变得更加可控和可管理。 其次,Spring Batch提供了高效的数据处理机制。它采用了读-处理-写的模式来处理数据,可以将输入数据进行分块读取,并通过多线程、多进程或分布式集群的方式进行并发处理,再将处理结果进行批量写入。这样可以大大提高数据处理的效率和吞吐量,适应海量数据的处理需求。 此外,Spring Batch还提供了一系列的错误处理和容错机制。对于处理过程中可能出现的错误或异常,Spring Batch可以捕获并记录,然后根据配置的策略进行重试或跳过等处理。这样可以保证批处理任务的数据完整性和可靠性,防止数据丢失或处理中断导致的问题。 总之,Spring Batch是一个非常适合处理海量数据的框架。它可以帮助我们高效地处理大量数据,并提供了灵活的批处理任务管理和容错机制,从而满足海量数据处理的需求。 ### 回答3: Spring Batch 是一个Java框架,用于处理海量数据的批处理任务。它提供了一套强大的工具和功能,可以有效地处理大量的数据,并且具有良好的可扩展性和可维护性。 在处理海量数据时,Spring Batch 提供了以下功能和优势: 1. 分批处理:Spring Batch 可以将海量数据分为多个小批次进行处理,每次处理一批数据,以降低内存和CPU的使用量。这种方式可以提高整体的性能和效率,并且可以更好地管理资源。 2. 事务管理:Spring Batch 提供了事务管理机制,确保数据处理的原子性和一致性。即使在处理过程中出现错误或异常,Spring Batch 也可以回滚事务,保证数据的完整性。 3. 多线程处理:Spring Batch 支持多线程处理,可以同时处理多个批次的数据。通过合理的线程配置,可以更好地利用多核处理器的性能,并且可以并行处理不同的数据批次,提高整体的处理速度。 4. 容错和错误处理:Spring Batch 提供了强大的容错和错误处理机制。它可以记录和重试失败的任务,并且可以自定义错误处理策略。这样可以有效地处理异常情况,并且可以保证数据的准确性和完整性。 5. 可扩展性和可维护性:Spring Batch 使用了模块化的架构,提供了丰富的可重用组件和扩展点。这样可以更好地实现代码的可维护性和可扩展性,方便开发人员进行定制化开发和集成其他系统。 总之,Spring Batch 是一个功能强大的框架,适用于处理海量数据的批处理任务。它可以提高处理效率和性能,并且具有良好的可扩展性和可维护性,非常适合处理大量的数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值