依然有问题…不知道咋了。只能将源码粘贴过来了。
# 迭代1000次
for epoch in range(epochs):
epoch += 1
# 注意转行成tensor
inputs = torch.from_numpy(x_train)
labels = torch.from_numpy(y_train)
# 梯度要清零每一次迭代(不清零会自动累加!!(上篇中说过))
optimizer.zero_grad()
# 前向传播
outputs = model(inputs)
# 计算损失
loss = criterion(outputs, labels)
# 反向传播
loss.backward()
# 更新权重参数
optimizer.step()
if epoch % 50 == 0:
print('epoch {}, loss {}'.format(epoch, loss.item()))
测试模型预测结果展示:
predicted = model(torch.from_numpy(x_train).requires_grad_()).data.numpy()
array([[ 1.0007416],
[ 3.0006347],
[ 5.000528 ],
[ 7.000421 ],
[ 9.000315 ],
[11.000208 ],
[13.000101 ],
[14.999994 ],
[16.999887 ],
[18.99978 ],
[20.999674 ]], dtype=float32)
模型的保存与读取
# 全部数据
torch.save(model.state_dict(), 'model.pkl')
# 保存模型的参数
model.load_state_dict(torch.load('model.pkl'))
在GPU运行的样子
# 关键步骤如果有cuda就用cuda,否则CPU(默认)
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
# 放到device中
model.to(device)
# 输入、输出也要放到device中
inputs = torch.from_numpy(x_train).to(device)
labels = torch.from_numpy(y_train).to(device)
tensor常见形式
scalar:一个数值
例如:tensor(42.)
scalar.dim() 为0
vector:一个向量
例如:tensor([身高,体重,年龄])
vector.dim() 为1
vector.size() 为3
matrix:矩阵
例如:tensor([ [a,b],
[c,d] ])
Matrix1.matmul(Matrix2) 矩阵内积
Matrix1*Matrix2 点积
n-dimensional tensor:高维特征
hub:一句话调用别人训练好的模型。
GITHUB:https://github.com/pytorch/hub
模型:https://pytorch.org/hub/research-models
例如:
colab可以在网页上执行。很方便!!
很多最直接、最简单的实验都能在hub上做哦!