1. 同时train两个PPFR model出现端口冲突问题:
解决方法:命令行运行代码时,手动加上一句"_ _master_port=xxxxx"
eg. python -u -m torch.distributed.launch --nproc_per_node=1 --nnodes=1 --master_port=25641 train.py
解决方法:命令行运行代码时,手动加上一句"_ _master_port=xxxxx"
eg. python -u -m torch.distributed.launch --nproc_per_node=1 --nnodes=1 --master_port=25641 train.py