总结:
1 自定义的参数和数据 需要转化为GPU支持的tensor
2 model需要转化为cuda支持的model
3 执行的结果需要和cup的tensor计算的时候
a tensor.cpu() 把cuda的tensor转化为cpu的tensor
import torch
import torch.nn as nn
from torch import optim
import matplotlib.pyplot as plt
import numpy as np
#定义一个device对象
device=torch.device("cuda" if torch.cuda.is_available() else "cpu")
# 0 定义数据
x=torch.rand([50,1]).to(device)
y=x*3+0.8 #因为x是GPU类型的tensor了 +0.8不会影响类型
# 1 定义模型
class Lr(nn.Module):
def __init__(self):
super(Lr,self).__init__()
self.linear=nn.Linear(1,1)
def forward(self,x):
out=self.linear(x)
return out
# 2 实列化模型 loss 和优化器
model=Lr().to(device) #将实例化的模型进行to(device) 就相当于把模型放到GPU上去了
criterion=nn.MSELoss()
optimizer=optim.SGD(model.parameters(),lr=1e-3)
# 3 训练模型
for i in range(30000):
out=model(x) #3.1获取预测值
# print(out)
# break
loss=criterion(y,out) #3.2计算损失函数
optimizer.zero_grad() # 3.3梯度归零
loss.backward() #3.4计算梯度
optimizer.step() #3.5 更新梯度
if (i+1)%20 ==0:
# print('Epoch[{}/{}],loss:{:.6f}'.format(i,30000,loss.data))
params=list(model.parameters())
print(loss.item(),params[0].item(),params[1].item())
#4. 模型评估
# model.eval() #设置模型为评估模式,即预测模式
# predict = model(x)
# predict = predict.data.numpy()
# plt.scatter(x.data.numpy(),y.data.numpy(),c="r")
# plt.plot(x.data.numpy(),predict)
# plt.show()