api太多,就是需要边用 边查。打算在继续看视频之前,跟着b站视频动手敲代码练手。
创建矩阵
可以跟numpy类似操作
矩阵大小
基本计算方法:
直接使用x+y 或者torch.add(x,y)
索引
view 改变矩阵
注意,有个4*4的矩阵x,z=x.view(-1,8) -1这里是未知的,相当于未知,计算出:4*4/8=2
与numpy协同
tensor与array相互转换
自动求导
上面对b求偏导=1,注意,不清零梯度会累加
线性回归的demo:
这里不是直接生成tensor,从np转换。这里的reshape改变tensor
的形状。跟前面的 view类似的作用,只不过view方法只能改变连续的(contiguous)张量。
y=2x+1 构建方程
后面代码量多一些,直接命令行敲代码不太方便,转到pycharm
线性回归模型:
class LinearRegressionModel(nn.Module): # torch.nn模块下的Module模块
def __init__(self, input_dim, output_dim): # 构造函数
super(LinearRegressionModel, self).__init__()
self.linear = nn.Linear(input_dim, output_dim) # 使用的层
# 重写前向传播方法,模型从前往后走的过程
def forward(self, x):
out = self.linear(x)
return out
这块老师没有展开讲,大概知道下,先跳过。
指定参数及损失函数
# 训练次数
epochs = 1000
# 定义学习率
learning_rate = 0.01
# 优化器选择随机梯度下降算法
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
# 选择损失函数MSE
criterion = nn.MSELoss()
训练模型:
for epoch in range(epochs):
epoch += 1
# 转成tensor格式
inputs = torch.from_numpy(x_train).to(device)
labels = torch.from_numpy(y_train).to(device)
# 每次迭代梯度清零,防止累加
optimizer.zero_grad()
# 前向传播
outputs = model(inputs)
# 计算损失
loss = criterion(outputs, labels)
# 反向传播
loss.backward()
# 更新权重参数
optimizer.step()
if epoch % 50 == 0:
print('epoch{},loss{}'.format(epoch, loss.item()))
输出 结果:
模型保存
torch.save(model.state_dict(), 'model.pk1')
GPU版本需要把模型跟数据都传入。我这个没有。没法验证了。