在服务器的通用Docker上调用torch的函数时就会出现这个问题。
在已经排除cuda version, torch version等一些列问题之后,确定并非是版本匹配的问题。当然不排除是服务器cuda driver过于老旧的问题。在最后实在是无法解决这个问题后,因为我只需要验证模型的推理能力,所以决定舍弃cuDNN的加速能力。在代码运行时加上这一句:
torch.backends.cudnn.enabled = False
最终让代码跑了起来。
在服务器的通用Docker上调用torch的函数时就会出现这个问题。
在已经排除cuda version, torch version等一些列问题之后,确定并非是版本匹配的问题。当然不排除是服务器cuda driver过于老旧的问题。在最后实在是无法解决这个问题后,因为我只需要验证模型的推理能力,所以决定舍弃cuDNN的加速能力。在代码运行时加上这一句:
torch.backends.cudnn.enabled = False
最终让代码跑了起来。