pytorch学习(七)——非线性回归网络
说明:这篇博客主要是pytorch实现非线性回归模型,可以非常清晰地看清在pytorch之中进行模型训练的步骤和方式,相关代码
代码包参考:https://download.csdn.net/download/jerry_liufeng/13096226
一、导入相关模块
import numpy as np
import matplotlib.pyplot as plt
from torch import optim
from torch.autograd import Variable
import torch
from torch import nn
二、生成数据
x_data = np.linspace(-2,2,200)[:,np.newaxis] # 后面部分表示在列的位置上加上一个维度
noise = np.random.normal(0,0.2,x_data.shape)
y_data = np.square(x_data)+noise
plt.scatter(x_data,y_data)
plt.show()
将numpy格式的数据变为tensor中的变量
# 将numpy数据变为tensor数据
x_data = torch.FloatTensor(x_data)
y_data = torch.FloatTensor(y_data)
# 将数据变为tensor中的变量
inputs = Variable(x_data)
target = Variable(y_data)
三、构建网络模型
class NonLinearRegression(nn.Module):
def __init__(self):
# 定义网络结构
super(NonLinearRegression,self).__init__() # 初始化父类
self.fc1 = nn.Linear(1,10) # 输入层,全连接层
self.tanh = nn.Tanh() # 激活函数
self.fc2 = nn.Linear(10,1) # 一个隐藏层
def forward(self,x):
#定义网络计算
x = self.fc1(x) # 全连接层
x = self.tanh(x) # 激活选择
x = self.fc2(x) # 隐藏层计算输出最终结果
return x
四、定义模型
# 定义模型
model = NonLinearRegression()
# 定义代价函数-均方根代价函数
mse_loss = nn.MSELoss()
# 定义优化器—随机梯度下降法
optimizer = optim.SGD(model.parameters(),lr=0.1)
五、查看模型参数(并非必要)
# 查看模型参数
for name,parameter in model.named_parameters():
print('name:{},param:{}'.format(name,parameter))
六、模型训练
# 模型训练
for i in range(1001):
out = model(inputs)
#计算loss
loss =mse_loss(out,target)
# 梯度清零
optimizer.zero_grad()
# 计算梯度
loss.backward()
# 修改权值
optimizer.step()
if i%200==0:
print(i,loss.item())
七、绘图查看
# 绘图
y_pred = model(inputs)
plt.scatter(x_data,y_data)
plt.plot(x_data,y_pred.data.numpy(),'r-',lw=3) # 注意y_pred为tensor的变量类型,需要取出数据然后变为numpy类型
plt.show()