关于训练模型时num_workers和batch_size的设置匹配

我的cpu是i7,gpu是4090d,之前跑代码一直会蓝屏,按照网上的意见调低batch_size和num_workers。发现batch_size越低,cpu占用率越高,而gpu占用率百分之一都不到。

我的想法是batch_size调低,gpu处理一次batch就更加轻松,对下一个batch的需求就更加渴望,那么负责dataloader的cpu就会不停歇地处理和加载数据喂给gpu。所以干脆把batch_size拉到很高,让gpu处理一批数据的速度不要太快,那么cpu加载数据也就更加游刃有余。按照这个想法,果然cpu的占用率降了特别多,而且训练速度更快了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值