pytorch学习第一章——初识pytorch

tensor

机器学习的基本单位

x = torch.empty(3,5) 
x = torch.zeros(5,4)
x = torch.rand(5,3) #0-1均匀分布的随机矩阵
x = torch.randn(5,3)#正态分布(0,1)随机矩阵
x = torch.randn_like(x)#和x大小一样的randn矩阵
x = torch.tensor([[1,2],[3,4.3]])

view

y = x.view(16)#将其变为16大小的tensor
z = x.view(-1, 8)#第一位自动,第二位8的矩阵

与numpy的转化

a = torch.ones(5)
b = a.numpy()#将tensor转化为b
a = np.ones(5)
b = torch.from_numpy(a)#将numpy转化为tensor

线性回归模型

x_values = [i for i in range(100)]
x_train = np.array(x_values, dtype=np.float32)
x_train = x_train.reshape(-1, 1)#向量输入,np类型
class LinearRegressionModel(nn.Module):##继承nn中的模块
    def __init__(self, input_dim, output_dim):
        super().__init__()
        self.linear = nn.Linear(input_dim, output_dim)  

    def forward(self, x):#重写前向计算
        out = self.linear(x)
        return out
model = LinearRegressionModel(input_dim, output_dim)
epochs = 2000
learning_rate = 0.01#学习率
optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)#优化器,最好使用Adam
criterion = nn.MSELoss()#损失函数
for epoch in range(epochs):
    epoch += 1
    # 注意转行成tensor
    inputs = torch.from_numpy(x_train)
    labels = torch.from_numpy(y_train)

    # 梯度要清零每一次迭代
    optimizer.zero_grad() 

    # 前向传播
    outputs = model(inputs)#将输入传入model

    # 计算损失
    loss = criterion(outputs, labels)

    # 反向传播
    loss.backward()#从loss开始反向传输

    # 更新权重参数
    optimizer.step()
    if epoch % 50 == 0:
        print('epoch {}, loss {}'.format(epoch, loss.item()))
predicted = model(torch.from_numpy(x_train).requires_grad_()).data.numpy()#模型预测
torch.save(model.state_dict(), 'model.pkl')#模型保存
model.load_state_dict(torch.load('model.pkl'))#模型加载
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值