关于深度模型训练的一点疑问

今日又打算开个专栏,叫做待解答,有些问题去百度上问都很难描述出来,而且不属于会卡住你工作的bug类,所以决定记录下来加深印象,可能就会在某天等来那个珍贵的茅塞顿开…

同样的模型,设置batch_size=2,放在两个相同配置的显卡,device#1device#6上跑,并将device#1设置为主设备,但是跑的过程中发现,在device#6上占用的内存比device#1上大许多(我的模型大概是大了三倍,最初device#1 5000+M,device#616000+M),且最后也是因为device#6上的内存不够提示CUDA out of memory的,因此疑惑一:

  • 为何多设备并行的情况下,在主设备上的内存占用比其他设备小?

后来,只好设batch_size=1分别在device#1device#6上开两个模型,但是却发现,这次在device#6的内存占用情况更小了(大概10000+M),所以又出现一个疑惑:

  • 为什么并行计算的情况下,同样的batch_size好像占用的内存更大了?
  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值