PyTorch基础-线性回归以及非线性回归-02

线性回归

import torch
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from torch import nn,optim
from torch.autograd import Variable
import os
os.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"
# 数据生成
x_data = np.random.rand(100) # 随机生成1维100个值的数据
noise = np.random.normal(0,0.01,x_data.shape)
y_data = x_data*0.1 + 0.2 + noise
x_data,noise,y_data

在这里插入图片描述

plt.scatter(x_data,y_data) # 使用散点图画图
plt.show()

在这里插入图片描述

x_data = x_data.reshape(-1,1) # 变成二维 表示(任意行,1列)
y_data = y_data.reshape(-1,1)
x_data.shape,y_data.shape

在这里插入图片描述

# 把numpy数据变成tensor
x_data = torch.FloatTensor(x_data)
y_data = torch.FloatTensor(y_data)
inputs = Variable(x_data) # 样本
target = Variable(y_data) # 标签
# 构建神经网络模型
# 一般把网络中具有可学习参数的层放在__init__()中
class LinearRegression(nn.Module): # 构建一个线性回归类
    # 定义网络结构
    def __init__(self):
        super(LinearRegression,self).__init__() # 初始化nn.Module
        self.fc = nn.Linear(1,1)# 全连接层 features_in其实就是输入的神经元个数,features_out就是输出神经元个数,bias默认为True,这里为了表达方便,就写了False,一般调用都是torch.nn.Linear(10, 5),就是输入10个,输出5个神经元,且考虑偏置。
    # 定义网络计算
    def forward(self,x): # x表示网络的输入值
        out = self.fc(x)#  把一个输入传给全连接层
        return out # 返回一个输入值
# 定义模型
model = LinearRegression()
# 定义代价函数
mse_loss = nn.MSELoss()
# 定义优化器
optimizer = optim.SGD(model.parameters(),lr=0.1)# SGD随机梯度下降优化函数,model.parameters()为该实例中可优化的参数,lr为参数优化的选项(学习率等)
for name,parameters in model.named_parameters(): # 查看模型参数
    print("name:{},param{}".format(name,parameters))

在这里插入图片描述

# 模型训练
for i in range(1001):
    out = model(inputs)
    # 计算loss
    loss = mse_loss(out,target)
    # 梯度清零
    optimizer.zero_grad()
    # 计算梯度
    loss.backward()
    # 修改权重值
    optimizer.step()
    # 打印结果
    if i%200 == 0:
        print(i,loss.item())

在这里插入图片描述

# 绘制图查看拟合效果
y_pred = model(inputs)
plt.scatter(x_data,y_data)
plt.plot(x_data,y_pred.data.numpy(),"r",lw=3)# 绘制回归线
plt.show()

在这里插入图片描述

非线性回归

import torch
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from torch import nn,optim
from torch.autograd import Variable
import os
os.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"
# 数据生成
x_data = np.linspace(-2,2,200)[:,np.newaxis]
noise = np.random.normal(0,0.2,x_data.shape)
y_data = np.square(x_data) + noise
x_data.shape,y_data.shape

在这里插入图片描述

plt.scatter(x_data,y_data) # 使用散点图画图
plt.show()

在这里插入图片描述

# 把numpy数据变成tensor
x_data = torch.FloatTensor(x_data)
y_data = torch.FloatTensor(y_data)
inputs = Variable(x_data) # 样本
target = Variable(y_data) # 标签
# 构建神经网络模型
# 一般把网络中具有可学习参数的层放在__init__()中
class LinearRegression(nn.Module): # 构建一个线性回归类
    # 定义网络结构
    def __init__(self):
        super(LinearRegression,self).__init__() # 初始化nn.Module
        #features_in其实就是输入的神经元个数,features_out就是输出神经元个数,bias默认为True,这里为了表达方便,就写了False,一般调用都是torch.nn.Linear(10, 5),就是输入10个,输出5个神经元,且考虑偏置。
                # 网络结构 1-10-1   1个输入10个神经元1个输出
        self.fc1 = nn.Linear(1,10) # 增加一个全连接层(隐藏层)
        self.tanh = nn.Tanh() # 激活函数
        self.fc2 = nn.Linear(10,1) # 输出层
    # 定义网络计算
    def forward(self,x): # x表示网络的输入值
        x = self.fc1(x)  # 把x输入的值传给全连接层
        x = self.tanh(x) # 使用tanh激活计算后
        x = self.fc2(x)  # 传给输出
        return x # 返回
# 定义模型
model = LinearRegression()
# 定义代价函数
mse_loss = nn.MSELoss()
# 定义优化器
optimizer = optim.SGD(model.parameters(),lr=0.1)# SGD随机梯度下降优化函数,model.parameters()为该实例中可优化的参数,lr为参数优化的选项(学习率等)
for name,parameters in model.named_parameters(): # 查看模型参数
    print("name:{},param{}".format(name,parameters))

在这里插入图片描述

# 模型训练
for i in range(2001):
    out = model(inputs)
    # 计算loss
    loss = mse_loss(out,target)
    # 梯度清零
    optimizer.zero_grad()
    # 计算梯度
    loss.backward()
    # 修改权重值
    optimizer.step()
    # 打印结果
    if i%200 == 0:
        print(i,loss.item())

在这里插入图片描述

# 绘制图查看拟合效果
y_pred = model(inputs)
plt.scatter(x_data,y_data)
plt.plot(x_data,y_pred.data.numpy(),"r",lw=3)# 绘制回归线
plt.show()

在这里插入图片描述

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值