Watchdog caught collective operation timeout: WorkNCCL...

最近在使用pytorch框架的分布式多卡跑深度学习模型时,遇到了该问题,并且出错位置随机,无任何明确错误提示:

此前,也遇到过类似的问题,排查原因在于使用coco数据集做检测时,coco的训练集和验证集均存在有些数据没有label(即没有检测框的数据),损失计算有问题,从而导致了多卡训练在进行信息通信时卡死现象。本次初步排查出错位置在于:loss.backward(), 即梯度回传出错。

为了解决该问题,仍然排查数据问题,将coco没有标签的数据剔除,然而问题并没有解决。进一步排查发现,读取数据时是有标签的,经过了transform之后,边界框消失了!

所以问题在于transform中的随机裁剪操作,有可能将当前图片的所有label均裁剪在之外。进一步解决:重新多次transform,直到该数据的transform之后保持有label,问题解决。

总结:核心原因是数据corrupted/incomplete,解决数据问题,即可解决该问题。

  • 4
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值