Pytorch训练加速技巧小结

1.有时我们会发现,使用Pytorch的模型,训着训着,越来慢了或者outofmemory,这时我们该怎么解决呢?

    主要是因为,模型可能在不断的产生临时变量,这个时候,我们可以设置程序每隔多少次进行一次清除操作:torch.cuda.empty_cache()

2.在数据读取速度不变的情况下,怎样进一步提高模型的训练速度呢?

    PyTorch 会默认使用 cuDNN 加速,并且cuDNN 里面是有很多加速算法,有些加速算法是针对大矩阵,有些加速算法是针对小矩阵,但 torch.backends.cudnn.benchmark=False,会导致,模型所选择的cuDNN里面的加速算法只是一个通用的,并不是最优。当 torch.backends.cudnn.benchmark=True的时候,模型就会为每一步选择一个最优cuDNN 加速算法,所以第一步的训练速度是慢于常规,但后面都是快于常规。

    但使用这个是有一个前提,模型结构在训练过程中是不变化的,传入数据批次和大小数也是不变的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值