1、判断GPU是否可用torch.cuda.is_available()
device=torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
2、把模型参数和input数据转换成cuda支持的数据类型
model.to(device)
x_true.to(device)
3、在GPU上计算结果也为cuda的数据类型,需要转化为numpy或者torch的cpu的tensor类型
predict=predict.cpu().detach().numpy()
detach()的效果和data的类似,但是detach()是深拷贝;data是取值,是浅拷贝。