pytorch版本是0.3,当设置DataLoader的num_works>0时,程序假死。
解决方案如下:
1.使用的pytorch至少到0.4版本(至少我使用0.4.1的版本没有问题)。
2.再将容器的shm-size设置为需要的大小。值太小,当batchsize或num_works大时,问题可能会继续出现。我设置为内存的一半大小。因为没有服务器root权限,因此我的具体方法是创建容器时加上参数: --shm-size 31G。
pytorch版本是0.3,当设置DataLoader的num_works>0时,程序假死。
解决方案如下:
1.使用的pytorch至少到0.4版本(至少我使用0.4.1的版本没有问题)。
2.再将容器的shm-size设置为需要的大小。值太小,当batchsize或num_works大时,问题可能会继续出现。我设置为内存的一半大小。因为没有服务器root权限,因此我的具体方法是创建容器时加上参数: --shm-size 31G。