pytorch 速度问题测试

今天我发现一个很奇怪的问题,就是我当样本量从200000增加到40万的时候,训练代码没有改动,但是pytorch的速度却突然增加了4倍不止,后面我发现这个速度的问题在于dataloader的创建方式上

如果采用

 myloader = DataLoader(dataset=myset, batch_size=batch_size, shuffle=True)

这个速度就会慢

但是如果采用

myloader = DataLoader(dataset=myset, batch_size=batch_size, shuffle=True,num_workers=4, pin_memory=True)

这个速度就会快2倍差不多,这个就和tensorflow里面的速度差不多了,这个值得注意,有时间可以单独测试一下,这里先记录一下

而且我发现,对于大数据集,尽量不要使用jupyter来跑结果,这个很有可能会出问题,应该直接使用.py来运行,这样不容易出问题的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值