pytorch-distributed traning

 

1. 单机多卡数据并行

```

model = xxx  
losses = torch.nn.parallel.data_parallel(model, inputs=(), device_ids=[], dim=x)  # functional style

```

2. pytorch-1.0 distributed

2.1 单机多卡

 

2.2 多级多卡

 

----

reference: https://pytorch.org/docs/stable/distributed.html

----

errors:

  File "inference.py", line 111, in <module>
    model.load_state_dict(torch.load('./output/state-ckpt-epoch-final', map_location='cpu')) # ['model']
  File "/home/anaconda3/lib/python3.6/site-packages/torch/serialization.py", line 367, in load
    return _load(f, map_location, pickle_module)
  File "/home/anaconda3/lib/python3.6/site-packages/torch/serialization.py", line 545, in _load
    deserialized_objects[key]._set_from_file(f, offset, f_should_read_directly)
RuntimeError: storage has wrong size: expected 4363873583357797660 got 1
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值