PyTorch训练模型出现“Address already in use”问题解决

1. 常规做法

通过环境变量指定端口。

export MASTER_PORT=$MASTER_PORT

2. 多进程通信导致的问题

有时候,即使单卡训练任务,也指定了MASTER_PORT,可还是出现这种报错。我数了一下报错信息中"Address already in use"的出现次数,居然等于我在dataloader里面指定的num_workers数值。所以怀疑是多线程/进程通信问题。GPT4告诉我说也有可能是加载远程网盘数据在multi-workers情况下出现端口占用问题。解决办法很简单,加上一个参数即可“--dist-url auto”。

python xxx.py --dist-url auto [--other_options]

Happy Coding!

  • 6
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值