Pytorch机器学习经典算法——线性回归

原视频链接:3. 零基础入门PyTorch之线性回归【逐行代码讲解】
原文章链接:【PyTorch修炼】零基础入门PyTorch之线性回归【逐行代码讲解】

线性回归其实就是

y=kx+b

但是需要注意的是,这里所有的未知量都是一个矩阵而不是一个数,k是权重,b是偏差

要求:

  1. 数据都是tensor类型 如果有batch_size需要用dataloader去装这个数据
  2. 建立 model
  3. 完成训练过程 ->进行前向传播 ->利用loss反向传播 ->优化器进行优化
  4. 用matlplotlib进行数据可视化

程序示例

导入库

import torch
import torch.nn as nn
import  matplotlib.pyplot as plt

写出函数并画图

x=torch.linspace(0,20,500)#0-20之间取500个点
k=3
b=10
y=k*x+b

plt.scatter(x.data.numpy(),y.data.numpy())#因为torch的数据类型都是tensor,而plt只能画numpy数据结构的,所以需要写data.numpy()转换一下
plt.show()

输出结果:
在这里插入图片描述
现在我们把写的函数都注释掉,来用机器学习拟合这条线

自己做一个数据集

x=torch.rand(512)#随机在0-1之间有512个点
noise=0.2*torch.randn(x.size())#加入高斯白噪声
k=3
b=10
y=k*x+b+noise
plt.scatter(x.data.numpy(),y.data.numpy())
plt.show()

输出结果:
在这里插入图片描述

构建神经网络

class LinearModel(nn.Module):
    def __init__(self,in_fea,out_fea):
        super(LinearModel, self).__init__()
        self.output=nn.Linear(in_features=in_fea,out_features=out_fea)
    def forward(self,x):
        x=self.output(x)
        return x
input_x=torch.unsqueeze(x,dim=1)#因为我们输入的x是512个数,而不是512,所以需要转换维度
input_y=torch.unsqueeze(y,dim=1)

构建损失函数和优化器

model=LinearModel()
loss_func=nn.MSELoss()#均方差求loss
optimizer=torch.optim.SGD(model.parameters(),lr=0.02)#随机梯度下降优化器

准备画图

plt.ion()#打开交互模型

开始训练

for step in range(20):
    pred=model(input_x)#预测值
    loss=loss_func(pred,input_y)#损失值
    optimizer.zero_grad()#梯度归零
    loss.backward()#反向传播
    optimizer.step()#进行优化器训练
    if step %10 ==0:#每十次移动一次
        plt.cla()#清除上一次的
        plt.scatter(input_x.data.numpy(),input_y.data.numpy())
        plt.plot(input_x.data.numpy(),pred.data.numpy(),'r-',lw=5)#画出预测的图像,线是红色,粗细是5
        [w,b]=model.parameters()
        plt.text(0,0.5,'loss=%.4f,k=%.2f,b=%.2f'%(loss.item(),k.item(),b.item()))
        plt.pause(1)#每次停顿一下

plt.ioff()#关闭实时显示
plt.show()

输出结果:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
可以看到红线正在逐渐拟合

完整代码

import torch
import torch.nn as nn
import  matplotlib.pyplot as plt

# x=torch.linspace(0,20,500)#0-20之间取500个点
# k=3
# b=10
# y=k*x+b
#
# plt.scatter(x.data.numpy(),y.data.numpy())#因为torch的数据类型都是tensor,而plt只能画numpy数据结构的,所以需要写data.numpy()转换一下
# plt.show()

x=torch.rand(512)#随机在0-1之间有512个点
noise=0.2*torch.randn(x.size())#加入高斯白噪声
k=3
b=10
y=k*x+b+noise
# plt.scatter(x.data.numpy(),y.data.numpy())
# plt.show()

class LinearModel(nn.Module):
    def __init__(self,in_fea,out_fea):
        super(LinearModel, self).__init__()
        self.output=nn.Linear(in_features=in_fea,out_features=out_fea)
    def forward(self,x):
        x=self.output(x)
        return x
input_x=torch.unsqueeze(x,dim=1)#因为我们输入的x是512个数,而不是512,所以需要转换维度
input_y=torch.unsqueeze(y,dim=1)

model=LinearModel(1,1)

loss_func=nn.MSELoss()#均方差求loss
optimizer=torch.optim.SGD(model.parameters(),lr=0.02)#随机梯度下降优化器


plt.ion()#打开交互模型
for step in range(200):
    pred=model(input_x)
    loss=loss_func(pred,input_y)
    optimizer.zero_grad()#梯度归零
    loss.backward()#反向传播
    optimizer.step()
    if step %10 ==0:
        plt.cla()
        plt.scatter(input_x.data.numpy(),input_y.data.numpy())
        plt.plot(input_x.data.numpy(),pred.data.numpy(),'r-',lw=5)#画出预测的图像,线是红色,粗细是5
        plt.xlim(0, 1.1)#防止x文本消失
        plt.ylim(0, 20)
        [w,b]=model.parameters()
        plt.text(0,0.5,'loss=%.4f,k=%.2f,b=%.2f'%(loss.item(),w.item(),b.item()))
        plt.pause(1)#每次停顿一下

plt.ioff()
plt.show()




pytorch是一个开源的机器学习框架,它提供了丰富的工具和函数来实现机器学习算法。它支持多种机器学习算法的实现,包括但不限于线性回归、逻辑回归、支持向量机、决策树、随机森林、神经网络等。你可以使用pytorch的内置计算函数或基本的运算符号来进行计算操作,同时pytorch还提供了优化器和损失函数来帮助优化模型的训练过程。 在pytorch中,你可以使用tensor类型的数据进行机器学习算法的实现。如果有批处理的需求,你可以使用dataloader来加载和处理数据。你可以建立模型并完成训练过程,包括前向传播、损失反向传播和参数优化。你还可以使用matplotlib等库进行数据可视化,以便更好地理解和分析模型的结果。 总结起来,pytorch提供了丰富的工具和函数,使得机器学习算法的实现变得简单而高效。你可以根据自己的需求选择合适的算法,并使用pytorch来进行模型的训练和优化。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [机器学习学习源码包含几乎所有机器学习算法pytorch实现源码.zip](https://download.csdn.net/download/DeepLearning_/88195974)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [机器学习PyTorch——1.基本运算](https://blog.csdn.net/qq_52914337/article/details/122377696)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [Pytorch机器学习经典算法——线性回归](https://blog.csdn.net/qq_42887663/article/details/125667340)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Sol-itude

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值