跑算法时遇到以下两个报错:
RuntimeError: Caught RuntimeError in DataLoader worker process 5.
RuntimeError: unable to open shared memory object </torch_20565_2307541897>
根据完整报错(完整的报错没截图),发现是加载数据Dataloader时发生的错误。
解决方案:
1、查询原算法的环境配置和电脑配置,如果原算法的配置很高,自己电脑达不到该条件,可以降低num_works,因为num_works设置大,虽然能加快寻找batch的速度,但是会加重CPU的负担,说白了也就是自己电脑CPU带不动。我这里num_works=8 降低成 num_works=4。具体设置多少可以结合自己电脑性能试一试。
2、通过ulimit -n命令可以查看linux系统里打开文件描述符的最大值,一般缺省值是1024,但是针对数据库很大时,1024明显不够,这时我们要通过ulimit -n 1024000 短暂增大打开文件描述符的上限值,这里为什么说短暂增大也就是关闭终端后会重新恢复到1024。网上也有永久设置的方法,但是我觉得每次训练多加这一个步骤也挺快的,没必要永久设置了。
3、完成上面两个步骤,不报错了,能够正常训练跑算法了。