用tensor实现线性回归

该博客介绍了如何使用PyTorch构建一个机器学习模型,通过梯度下降法学习二次函数y=3x^2+2的参数。作者首先生成带有噪声的数据,然后设置初始权重和偏置,利用自动梯度计算损失函数的梯度,并进行参数更新。最终模型成功逼近了原始函数,展示了PyTorch在数值优化中的应用。
摘要由CSDN通过智能技术生成

表达式 y = 3x^{2} + 2  加上一些噪音数据得到另一个数据y

构建一个机器学习模型,学习表达式y = wx^{2}  + b ,利用数组x,y的数据为训练数据 

采用梯度下降法,通过多次迭代,学习到w,b的值

#   损失函数   Loss =0.5 \sum_{i = 1}^{100} (wx_{i}^{2} +b - y_{i})^{2}

     自动计算梯度

import torch
from matplotlib import pyplot as plt

torch.manual_seed(100)
dtype = torch.float
x = torch.unsqueeze(torch.linspace(-1,1,100),dim = 1)     # 维度是一维
y = 3 * x.pow(2) + 2 + 0.2 * torch.rand(x.size())
# 生成(0,1)之间的,格式跟x一样的(100,1)
plt.scatter(x,y)
plt.show()
w = torch.randn(1,1,dtype=dtype,requires_grad=True)       
# randn 返回一组随机的具有正态分布的样本
b = torch.zeros(1,1,dtype=dtype,requires_grad=True)
lr = 0.001
for i in range(1000):
    y_pred = x.pow(2).mm(w) + b                            # wx^2+b
    loss = 0.5 * (y_pred - y) ** 2
    loss = loss.sum()
    loss.backward()                                   # 自动计算梯度,梯度存放在grad属性中
    with torch.no_grad():                             # 手动更新参数。切断求导计算
        w -= lr * w.grad                    
        # a-=1 在原值上进行修改  a=a+1 先定义一个变量,然后对变量本身进行修改
        b -= lr * b.grad
        w.grad.zero_()
        b.grad.zero_()                                # 梯度清零,避免下一次循环时梯度累加

plt.plot(x,y_pred.detach(),'r-',label = 'predict')    # detach 返回一个新的没有梯度的tensor
plt.scatter(x,y,color='blue',marker='o',label='true')
plt.xlim(-1,1)
plt.ylim(2,6)
plt.legend()
plt.show()
print(w,b)

结果

 

 tensor([[2.9664]], requires_grad=True) tensor([[2.1139]], requires_grad=True)

结果发现跟使用numpy实现差不多

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值