[深度学习][pytorch]pytorch实现一个简单得线性回归模型并训练

一个典型的神经网络的训练过程如下:

定义具有学习参数(或权重)的神经网络
迭代输入数据集
根据神经网络对输入数据集进行运算
计算损失(输出与真实结果的距离,损失越小说明模型越准确)
将梯度反向传播给神经网络的参数
更新网络的权重(或参数)。通常使用一种简单的更新规则:权重 = 权重 - 学习率 * 梯度
线性回归模型目标:

构造一组输入数据 x 和其对应的标签 y ,让模型学习拟合出 w 和 b。
我们这里要模拟出的线性回归函数:y = 2x + 1
x 给的是从 0 - 10 一共11个数(11行1列的矩阵)     对应的y就是 1 - 21 也是11个数(11行1列的矩阵)

import numpy as np
import torch
import torch.nn as nn

构造X训练数据
x_values = [i for i in range(11)]
x_train = np.array(x_values,dtype=np.float32)
x_train = x_train.reshape(-1,1)
x_train.shape

(11,1)

构造y训练数据
y_values = [2*i+1 for i in x_values]
y_train = np.array(y_values,dtype=np.float32)
y_train = y_train.reshape(-1,1)
y_train.shape

(11,1)

建立网络模型:1.实现init()用到了哪个层 2.前向传播forward()怎么实现的
线性回归模型:一个不加激活函数的全连接层
class LinearRegressionModel(nn.Module):
    def __init__(self, input_dim, output_dim):
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(input_dim, output_dim) #全连接层 给定输入/出数据的维度 

    def forward(self, x):
        out = self.linear(x)#走全连接层 输入x,得到输出out
        return out


input_dim = 1
output_dim = 1
model = LinearRegressionModel(input_dim,output_dim)

指定参数和损失函数
epochs = 1000 #迭代1000次
learning_rate = 0.01 #学习率
optimizer = torch.optim.SGD(model.parameters(),lr=learning_rate) #优化器 模型的参数 学习率
criterion = nn.MSELoss() #损失函数 

训练模型
for epoch in range(epochs):
    epoch += 1
    #x,y数据转换成tensor格式
    inputs = torch.from_numpy(x_train)
    labels = torch.from_numpy(y_train)
    
    #梯度要清零 不然会对上一次迭代的结果进行累加
    optimizer.zero_grad()
    
    #前向传播
    outputs = model(inputs)
    
    #计算损失
    loss = criterion(outputs,labels)
    
    #反向传播
    loss.backward()
    
    #更新权重参数
    optimizer.step()
    if epoch%50 ==0:
        print('epoch {}, loss {}'.format(epoch, loss.item()))

 


测试模型预测结果
predicted = model(torch.from_numpy(x_train).requires_grad_()).data.numpy()
predicted

 


模型的保存与读取
torch.save(model.state_dict(),'linear_regression_model.pkl')

model.load_state_dict(torch.load('linear_regression_model.pkl'))
<All keys matched successfully>


数据和模型传入cuda——用GPU训练

 

 

 

class LinearRegressionModel(nn.Module):
    def __init__(self, input_dim, output_dim):
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(input_dim, output_dim)  
        
    def forward(self, x):
        out = self.linear(x)
        return out

input_dim = 1
output_dim = 1

model = LinearRegressionModel(input_dim, output_dim)

#设置cuda
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
#模型传入cuda
model.to(device)

criterion = nn.MSELoss()

learning_rate = 0.01

optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

epochs = 1000
for epoch in range(epochs):
    epoch += 1
    #inputs和labels的数据 传入cuda
    inputs = torch.from_numpy(x_train).to(device)
    labels = torch.from_numpy(y_train).to(device)

    optimizer.zero_grad() 

    outputs = model(inputs)

    loss = criterion(outputs, labels)

    loss.backward()

    optimizer.step()

    if epoch % 50 == 0:
        print('epoch {}, loss {}'.format(epoch, loss.item()))


 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FL1623863129

你的打赏是我写文章最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值