batchsize和数据量设置比例_pytorch如何设置batch-size和num_workers,避免超显存, 并提高实验速度?...

在PyTorch中,选择验证和测试时的最大batch-size以充分利用硬件资源而不耗尽显存。batch-size越大,推理速度越快。文章探讨了num_workers对性能的影响,指出当num_workers增加时,可能会增加内存开销和CPU负担。pin memory的使用可能牺牲batch size以换取传输速度。建议根据IO和CPU计算瓶颈调整num_workers,过大可能适得其反。推荐实验batch_size较小的num_workers值,如4或8。
摘要由CSDN通过智能技术生成

forvalidation_batch_sizeandtest_batch_size, you should pick the largest batch size that your hardware can handle without running out of memory and crashing.

Finding this is usually a simple trial and error process.

The larger your batch size at inference time, the faster it will be, since more inputs can be processed in parallel.

centernet的resdcn18,batchsize64左右时,num woker调到20,每个epoch比设为0快10分钟(原来是17min)

摘抄:

num_worker大,下一轮迭代的batch可能在上一轮/上上一轮...迭代时已经加载好了。坏处是内存(显卡内存?)开销大(开了pin memory?) ,也加重了CPU负担。显存=显卡内存(内存单词是memory),作用是用来存储显卡芯片处理过或者即将提取的渲染数据。

如同计算机的内存一样,显存是用来存储要处理的图形信息的部件。(显存和GPU的关系有点类似于内存和CPU的关系)

CPU不能直接调用存储在硬盘上的系统、程序和数据,必须首先将硬盘的有关内容存储在内存中,这样才能被CPU读取运行。因而,内存(即物理 内存,是相对于硬盘这个“外存”而言)作为硬盘和CPU的“中转站”,对电脑运行速度有较大影响。

https://zhuanlan.zhihu.com/p/31558973

pin memory: 开了就在GPU上面预留一片固

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值