同一个代码在不同配置服务器跑的时候经常遇到cuda torch cudnn等版本问题。可以用下面程序检验:
# !/usr/bin/python
#-*- coding: UTF-8 -*-
import torch
# 正常没有输出
a = torch.tensor(1.)
# 正常没有输出
from torch.backend import cudnn
# 正常没有输出
cudnn.is_available()
# 正常返回True
cudnn.is_acceptable(a.cuda())
# 正常返回True