pytorch新手自学教程(三)

pytorch新手自学教程(三)-线性回归

包含头文件

import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt

线性回归

神经网络处理的主要两大类事物便是回归与分类。以一维线性回归问题为例讲解。
给定数据集 D = {(Xl , Yl) , (X2, Y2) , (X3 , Y3) ,… ,(Xm, Ym)},线性回归希望能够优 化出一个好的函数 f(x) , 使得 f(xi)=ωxi + b 能够与 Yi 尽可能接近。将f(x)比作神经网络,ω、 b为网络中需要训练的参数,而损失函数的作用即为衡量该神经网络输出f(xi)与yi的拟合度,并参照损失函数修改网络参数,使得结果更加趋近yi。

·准备一维线性数据集

x = torch.linspace(-1,1,100).unsqueeze(1) #linspace(-1,1,100)是在(-1,1)范围内平均取100个点,unquseeze(1)的作用是将x维度(100)变成(100,1)于神经网络输入维度保持一致(也可以用x = x.reshape(-1,1)达到相同目的)
y = 2 * x + torch.rand(x.size()) #y = 2 * x + (一个范围在(0,1)的随机数)
#打印数据
#x与y为tensor型,需转为numpy才能被画图包plt所用
x = np.array(x) 
y = np.array(y)
plt.scatter(x, y) #画(x,y)的散点图
plt.show()

图散点数据

·构建网络模型:

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.linear = nn.Linear(1,1) #最简单神经网络,1个全连接层,输入为x(一维)输出为y(一维)

    def forward(self, x):  #前向传递
        out = self.linear(x)
        return out
net = Net()

·训练数据:

loss_fuc = nn.MSELoss() #损失函数
optimizer = torch.optim.RMSprop(net.parameters(), lr = 0.02) #学习效率为0.02的RMSprop优化器

epochs = 1000 #训练上述数据1000轮

for epoch in range(epochs):
    #forward
    out = net(x) #输出预测值
    loss = loss_fuc(out, y) #预测值与真实值损失函数,参数位置不能颠倒
    #backward
    optimizer.zero_grad() #优化前使前一次梯度归0
    loss.backward() #损失函数反向传递
    optimizer.step() #执行优化
    #输出训练中损失函数值
    if epoch % 20 == 0:
        print('epoch: {} | loss: {:.3f}'.format(epoch, loss.data))

在这里插入图片描述

·输出训练好的网络的预测图线:

plt.scatter(x, y)
out = net(x)
plt.plot(x.data.numpy(),out.data.numpy())
plt.show()

在这里插入图片描述

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值