pytorch多gpu训练报错:RuntimeError: Caught RuntimeError in replica 0 on device 0.

在进行图卷积多gpu训练的时候,报了这样的错误。

最开始版本的代码使用的是:nn.DataParallel 来进行多gpu训练。

但是其缺点也很明显,对于其维护较差,优点就是只用一行代码。

首先为什么会产生这样的错误,在于gcn对于weight和bias使用了parameter 关键词,在parallel中,无法做到对parameter的并行,导致了一些问题。

后来痛定思痛,决定替换DataParallel 为DistributedDataParallel,可参考下面链接1。

然而,没有那么顺利,替换了之后,还接着出错,发现default gpu负载较为严重,产生原因是在于torch.load的时候,自动加载到了default gpu上,可以将其改为

map_location=torch.device('cpu')

除此之外,可以加上这两句,来减少显存的使用。

torch.backends.cudnn.benchmark = True
torch.backends.cudnn.enabled = True

参考链接

1.  PyTorch Parallel Training(单机多卡并行、混合精度、同步BN训练指南文档) - 知乎

2. PyTorch 有哪些坑/bug? - 知乎用户Nr7C35的回答 - 知乎 https://www.zhihu.com/question/67209417/answer/866488638

3. pytorch多个显卡并行训练 RuntimeError: Caught RuntimeError in replica 0 on device 0._liu_yuan_kai的博客-CSDN博客

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
引用\[1\]中提到了在服务器上跑网络时感觉很慢,尤其是在多块显卡同时运行时,尝试设置num_workers=4时出现了RuntimeError: Caught RuntimeError in DataLoader worker process的错误。这个错误通常是由于在多进程环境下使用了CUDA导致的。引用\[2\]中提到了另外一个报错信息RuntimeError: Cannot re-initialize CUDA in forked subprocess。这个错误提示表明在子进程中重新初始化CUDA会导致问题。根据这两个报错信息,可以推测出问题可能是由于在多进程环境下使用了CUDA并且尝试重新初始化CUDA导致的。 解决这个问题的方法是在创建DataLoader时将参数pin_memory设置为True,并且在创建DataLoader之前调用torch.cuda.set_device函数将当前设备设置为所需的GPU设备。这样可以确保在多进程环境下正确使用CUDA。另外,还可以尝试将num_workers设置为0,这样可以避免使用多进程,但可能会影响数据加载的速度。 总结起来,解决RuntimeError: Caught RuntimeError in DataLoader worker process的方法是: 1. 在创建DataLoader时将参数pin_memory设置为True。 2. 在创建DataLoader之前调用torch.cuda.set_device函数将当前设备设置为所需的GPU设备。 3. 将num_workers设置为0,以避免使用多进程。 希望这些方法能够帮助您解决问题。\[1\]\[2\] #### 引用[.reference_title] - *1* *2* [DataLoader设置num_workers=4报错 RuntimeError: Caught RuntimeError in DataLoader worker process](https://blog.csdn.net/qq_41381865/article/details/118459068)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [RuntimeError: applying transform <monai.transforms.croppad.dictionary.RandCropByPosNegLabeld object](https://blog.csdn.net/weixin_40198079/article/details/125423213)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值