前言
在学习深度强化学习过程中,由于前期并未系统的 学习网络搭建过程以及使用的地方较少,现在对于使用pytorch搭建神经网络的流程已经十分生疏。在这里重新系统的学习神经网络的搭建过程。
学习课程:【莫烦python】
数据模拟
使用linspace生成模拟的数据。注意其中的x后续将作为网络的输入,应当将其维度设置为1,否则将由于输入维度和网络层维度不同导致无法进行计算。
torch.unsqueeze:扩充维度
def dataSet():
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)
y = x.pow(2) + 0.2*torch.rand(x.size())
return x,y
网络搭建
#搭建网络
class Net (nn.Module):
def __init__(self,featureNum,hiddenList,outputNum):
super(Net,self).__init__()
#定义网络层
self.layers=nn.Sequential()
for i in range(len(hiddenList)):
if i==0:
#添加输入层
self.layers.add_module("layer{}".format(i),nn.Linear(featureNum, hiddenList[i]))
#添加激活函数
self.layers.add_module("act{}".format(i),nn.ReLU())
else:
#添加隐藏层
self.layers.add_module("layer{}".format(i),nn.Linear(hiddenList[i-1], hiddenList[i]))
#添加激活函数
self.layers.add_module("act{}".format(i),nn.ReLU())
#添加输出层
self.layers.add_module("layer{}".format(len(hiddenList)),nn.Linear(hiddenList[-1], outputNum))
def forward(self,x):
x=self.layers(x)
return x
在网络搭建过程中,采用Sequential序列进行动态添加网络参数。这样的操作方式可以通过网络层数以及神经元数量动态的搭建网络模型,避免逐层写入网络。
因此,通过设置的输入特征数量featureNum,隐藏层神经元数量列表hiddenList,输出特征数量outputNum,动态添加网络。
当初始化Net(1,[10,20],1)时,搭建网络如下:
训练过程
if __name__=="__main__":
#模拟数据
x,y=dataSet()
#初始化网络:3层结构(输入;1个隐藏层;输出)
net=Net(1,[10,20],1)
print(net)
#定义优化器
optimizer=torch.optim.SGD(net.parameters(),lr=0.2)
#定义误差函数
loss_fun=nn.MSELoss()
#迭代训练
for t in range(100):
#预测
prediction=net(x)
#计算误差
loss=loss_fun(prediction,y)
#梯度降为0
optimizer.zero_grad()
#反向传递
loss.backward()
#优化梯度
optimizer.step()
训练结果
====================================
今天到此为止,后续记录其他神经网络技术的学习过程。
以上学习笔记,如有侵犯,请立即联系并删除!