一个基于Pytorch框架的基础神经网络例子展示
重要的Pytorch学习工具,Pytorch中文文档:https://pytorch-cn.readthedocs.io/zh/latest/
1、案例步骤:
- 自定义一个一元二次函数的数据集(100个散点)
- 在数据集上加入噪点
- 搭建神经网络:继承父类模板、定义隐藏层和输出层、前向传播函数
- 实例化神经网络
- 定义优化器和损失函数,准备训练
- 训练(500批次):计算预测值、计算loss值、优化器梯度归零、反向传递
2、代码展示
import torch
import torch.nn.functional as F
#图形化显示的包
import matplotlib.pyplot as plt
import matplotlib; matplotlib.use("TkAgg")
import os; os.environ["KMP_DUPLICATE_LIB_OK"]= "TRUE"
#数据集搭建
x = torch.unsqueeze(torch.linspace(-1,1,100),dim=1)
y = x.pow(2) + 0.2 * torch.rand(x.size())
#可视化数据集
#plt.scatter(x.data.numpy(), y.data.numpy())
#plt.show()
#神经网络的搭建
class Net(torch.nn.Module): #先继承一个类
def __init__(self, n_feature, n_hidden, n_output):
super().__init__() #先继承父类,相当于一个模板
#定义隐藏层
self.hidden = torch.nn.Linear(n_feature,n_hidden)
self.predict = torch.nn.Linear(n_hidden,n_output)
#前向传播函数
def forward(self,x):
x = F.relu(self.hidden(x))
x = self.predict(x)
return x
#实例化网络
net = Net(1,10,1)
#print(net) #打印网络
#定义优化器
optimizer = torch.optim.SGD(net.parameters(),lr=0.2)
loss_func = torch.nn.MSELoss()
#print(net.parameters())
#训练(500批次)
for t in range(500):
prediction = net.forward(x)
loss = loss_func(prediction,y)
optimizer.zero_grad()#优化器梯度归零
loss.backward()#反向传递
optimizer.step()
if t&5 == 0:
plt.cla()
plt.scatter(x.data.numpy(), y.data.numpy())
plt.plot(x.data.numpy(), prediction.data.numpy(),'r-' ,lw=5)#对线绘制的要求
print('loss: ', float(loss.data))
plt.pause(0.1)
plt.ioff()
plt.show()
3、拟合结果展示
4、案例中Pytorch知识点总结
(1)张量的概念:张量(tensor)是一种特殊的数据结构,与数组和矩阵非常相似。在pytorch中,我们使用张量对模型的输入和输出以及模型的参数进行编码。张量与NumPy的数组很相似,只是它可以在GPU或其他硬件加速器上运行。
(2)torch.linspace
(3)torch.unsqueeze
- 返回一个新的张量,对输入的制定位置插入维度 1
*
(4)torch.rand:随机数,给数据集增加噪点
(5)torch.nn.Module (所有网络的基类,可以理解为网络的模板)
(6)torch.nn.Linear :线性变换
(7)torch.optim.SGD :定义优化器
(8)torch.nn.MSELoss() :定义损失函数(均方差误差函数)