实验五 神经网络

代码地址Github

实验描述

公路运量主要包括公路客运量和公路货运量两个方面。据研究,某地区的公路运量主要与该地区的人口数量、机动车数量和公路面积有关。表1中给出了某地区20年的公路运量相关数据。
根据相关部门数据,该地区2010年和2011年的人口数量分别为73.39和75.55万人,机动车数量分别为3.9635和4.0975万辆,公路面积将分别为0.9880和1.0268万平方千米。
要求:
(1)请利用BP神经网络预测该地区2010年和2011年的公路客运量和公路货运量。
(2)请利用其他方法预测该地区2010年和2011年的公路客运量和公路货运量,并比较这两种方法的优缺点。

数据处理

训练数据

这里写图片描述

测试数据

这里写图片描述

数据归一化

我们发现,多个特征之间的数据不在一个数量级上,比如人口数量和公路面积,相差比较大,因此得进行数据归一化。

我们采用极大极小值的归一化方法:

这里写图片描述

代码实现

def Norm(dataMat,labels):                                  #归一化数据 

    dataMat_minmax = np.array([dataMat.min(axis=1).T.tolist()[0],dataMat.max(axis=1).T.tolist()[0]]).transpose() #取得最大值和最小值

    dataMat_Norm = ((np.array(dataMat.T)-dataMat_minmax.transpose()[0])/(dataMat_minmax.transpose()[1]-dataMat_minmax.transpose()[0])).transpose() #归一化后的输入数据

    labels_minmax  = np.array([labels.min(axis=1).T.tolist()[0],labels.max(axis=1).T.tolist()[0]]).transpose()  #取得最大值和最小值

    labels_Norm = ((np.array(labels.T).astype(float)-labels_minmax.transpose()[0])/(labels_minmax.transpose()[1]-labels_minmax.transpose()[0])).transpose() #归一化后的输出数据

    return dataMat_Norm,labels_Norm,dataMat_minmax,labels_minmax

具体实现

BP神经网络

神经网络分为输入,隐层与输出层,除了输入层外,其余的每层激活函数均采用 f(x),MLP 容易受到局部极小值与梯度弥散的困扰,一个三层BP网络的网络结构如下所示:

这里写图片描述

激励函数

隐藏层中的人工神经元,也称单元,通常用非线性激励函数,如双曲正切函数和逻辑函数:

log-sigmoid:这里写图片描述

函数图形
这里写图片描述

tan-sigmoid:这里写图片描述

函数图形

这里写图片描述

由于我们之前对数据进行归一化的时候,将数据归一到0-1区间,因此我们可以选用log-sigmoid函数。

代码实现:

def f(x):                                                  #激励函数
    return 1/(1+np.exp(-x))

损失函数

和其他监督模型一样,目标是找到成本函数最小化的权重值,通常,MLP的成本函数是残差平方和的均值,计算公式如下:

这里写图片描述

代码实现:

err = sampleoutnorm - networkout    # sampleoutnorm与networkout都是归一化之后的数值
        sse = sum(sum(err**2))/m

隐含层的选取

在BP神经网络中,输入层和输出层的节点个数都是确定的,而隐含层节点个数不确定,那么应该设置为多少 才合适呢?实际上,隐含层节点个数的多少对神经网络的性能是有影响的,有一个经验公式可以确定隐含层 节点数目,如下

  • 6
    点赞
  • 41
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
深度学习实验中的循环神经网络是一种用于处理连续性数据的神经网络模型。它在神经元层之间不仅建立了层与层之间的权连接,还在层之间的神经元之间建立了权连接。这使得循环神经网络能够对序列数据进行处理,并且具有记忆能力。循环神经网络的一种简单实现是简单循环网络(Simple Recurrent Network,SRN)。 关于深度学习实验中的循环神经网络的更详细的信息,可以参考邱锡鹏老师的博客以及动手学深度学习的官方文档。这些资源提供了关于循环神经网络的理论知识和实际实施的指导。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [神经网络与深度学习实验day13-循环神经网络:RNN记忆能力实验](https://blog.csdn.net/ABU366/article/details/127912426)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [深度学习循环神经网络](https://download.csdn.net/download/baidu_35560935/13086725)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

计算机的小粽子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值