PYTORCH调优笔记

本文探讨了PyTorch中DataLoader的参数num_workers和pin_memory对训练速度的影响,以及不同batch_size对GPU显存和训练效率的平衡。实验表明,在特定硬件环境下,pin_memory=True可能导致速度减慢,而合适的batch_size可以有效解决显存问题。
摘要由CSDN通过智能技术生成

PYTORCH调优笔记

实验环境(i59400,1660Ti,32内存,2t固态)GPU模式
实验:SCNN做十分类

DataLoader(train_data, batch_size=batch_size, shuffle=True, drop_last=True,num_workers=4)

num_workers,pin_memory

batch_size=32
num_workers=4,pin_memory=False
单个batch时间:17.51min
num_workers=4,pin_memory=True
单个batch时间:20.20min
num_workers=0,pin_memory=False
单个batch时间:16.26
num_workers=0,pin_memory=True
单个batch时间:20.08

算上计时误差(-30s,+30s),结论是pin_memory=True在当前硬件环境下降速了,并不是像想象中那样将Dataloader的pin_memory设置为True可以将Tensor放入到内存的锁页区,加快训练速度。
(并且pin_memory=True情况下,cpu使用率到了100%(明显变高,False情况下为40%),cuda使用率到了56%(False情况下为57%))

dataloader里面的多线程读取数据一般打开设置一个合适的数值加速还是比较明显的,这里效果不是很明显,本实验设备为4核,8逻辑处理器

Pytorch中,将Dataloader的pin_memory设置为True会提高训练速度吗?.

batch_size

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
pin_memory参数可以设置为True或False。当pin_memory=True时,数据将被锁页在内存中,这有助于加速数据传输,特别是在使用GPU进行训练时。\[2\]然而,如果计算机的内存不足或系统卡顿,可以将pin_memory设置为False,以释放内存资源。\[1\]因为pin_memory的性能与计算机硬件有关,所以在默认情况下,pytorch将pin_memory设置为False,以适应更广泛的设备。\[3\] #### 引用[.reference_title] - *1* [RuntimeError: Pin memory thread exited unexpectedly 或 OSError: [Errno 9] Bad file descriptor 的解决...](https://blog.csdn.net/weixin_44025103/article/details/127697035)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [pytorch:参数pin_memory=True和non_blocking=True的作用](https://blog.csdn.net/Caesar6666/article/details/127283965)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [pytorch创建data.DataLoader时,参数pin_memory的理解](https://blog.csdn.net/tsq292978891/article/details/80454568)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值