所有神经网络的特点及优缺点分析总结

如果不明白所有神经网络都是如何分类且他们的概念的,参考本人的另一篇博客详解
所有神经网络的关系和分类-附思维导图

1 单层感知器

在这里插入图片描述

(1)主要应用: 可以快速、可靠的解决线性可分的问题
注意:单层感知器并不对所有二分类问题收敛,它只对线性可分的问题收敛,即可通过学习调整权值,最终知道合适的决策面,实现正确分类。对不线性不可分问题,单层感知器的学习算法是不收敛的。
(2)缺陷:
• 感知器的激活函数使用阈值函数,使得输出只能取得两个值(1/-1或0/1),遮掩就限制了在分类种类上的扩展
• 感知器网络只对线性可分的问题收敛,这是最致命的缺点。根据感知器收敛定力,只要输入向量是线性可分的,感知器总能在有限的时间内收敛。若问题不可分,则感知器无能为力。
• 如果输入样本存在奇异样本,则网络需要话费很长的时间。奇异样本就是数值上远远偏离其他样本的数据。例如以下样本:
在这里插入图片描述

每列是一个输入向量,前三个样本树枝上都比较小,第四个样本数据则比较大,远远的偏离其他数据点,在这种情况下,感知器虽然也能收敛,但需要更长的训练时间。
• 感知器的学习算法只对单层有效,因此无法直接条用其规则设计多层感知器。

2 线性神经网络

在这里插入图片描述

(1)与感知器的区别:感知器的传输函数只能输出两种可能的值,而线性神经网络的输出可以取任意值,其传输函数是线性函数。即是感知器的传输函数是一个二值阈值原件,而线性神经网络的传输函数是线性。这就决定了感知器只能做简单的分类,二线性神经网络可以实现拟合和逼近。线性神经网络采用Widrow-Hoff学习规则,即是LMS(Least Mean Square)算法来调整网络的权值和偏置。

2.1 线性神经网络的改进–Madaline神经网络

在这里插入图片描述

• 若线性神经挽留过中包含多个神经元节点,就能形成多个输出,这种线性神经网络叫Madaline神经网络。
• Madaline可以用一种间接的方式解决线性不可分问题,方法是用多个线性函数对区域进行划分,然后对各个神经元的输出做逻辑运算。

3 BP神经网络

在这里插入图片描述

(1)与线性神经网络的区别:线性神经网络只能解决线性可分问题,BP神经网络是包含多个隐含层的网络,具备处理线性不可分问题的能力。
(2)BP神经网络特点
• 网络由多层构成,层与层之间全连接,同一层之间的神经元无连接。多层的网络设计,使得BP网络能够从输入中挖掘更多的信息,完成更复杂的任务。
• BP网络的传递函数,必须可微。因此感知器的传递函数–二值函数在这里没有用武之地。BP网络一般使用Sigmoid函数或线性函数作为传递函数。根据输出值是否包含负值, sigmoid函数又可分为 Log-Sigmoid函数和 Tan-Sigmoid函数。
从图中可以看出, sigmoid函数光滑、可微的函数,在分类时它比线性函数更精准,容错性较好。它将输入从负无穷的范围映射到(-1,1)或(0,1)区间内,具有非线性的放大功能。Sigmoid函数可微的特性使它可以利用梯度下降法。在输出层,如果采用Sigmoid函数,将会把输出值限制在一个较小的范围,因此BP神经网络的典型设计是隐含层采用Sigmoid函数作为传递函数,而输出层则采用线性函数作为传递函数。
• 采用误差反向传播算法(Back-Propagation Algorithm)进行学习。在BP网络中,数据从输入层经隐含层逐层向后传播,训练网络权值时,则沿着减少误差的方向,从输出层经过中间各层逐层向前修正网络的连接权值。随着学习的不断进行,最终的误差越来越小。
(3)BP网络的局限性
• 需要的参数较多,且参数的选择没有有效的方法。确定一个BP网络需要知道网络的层数、每一层的神经元个数和权值。网络权值依据训练样本和学习率参数经过学习得到。隐含层神经元的个数如果太多,会引起过学习,而神经元太少又会导致欠学习。如果学习率过大,容易导致学习不稳定,学习率过小,又将延长训练时间。这些参数的合理值还要受具体问题的影响,目前为止,只能通过经验给出一个粗略的范围,缺乏简单有效的确定参数的方法,导致算法很不稳定。
• 容易陷入局部最有。BP算法理论上可以实现任意非线性映射,但在实际应用中,也可能经常陷入到局部最小值中。此时可以通过改变初始值,多次运行的方式,获得全局最优值。也可以改变算法。此时可以通过加入动量项或其他方法,使连接权值以一定概率跳出局部最优值。
• 样本依赖性。网络模型的逼近和推广能力与学习样本典型密切相关,如何选取典型样本是一个很困难的问题。算法最终效果与样本都有一定的的关系,这一点在神经网络中体现得尤为明显。如果样本集合代表性差、矛盾样本多、存在冗余样本,网络就很难达到预期的性能。
• 初始权重敏感性。训练的第一步是给定一个较小的随机初始权重,由于权重是随机给定的,BP网络往往具有不可重现性。

4 径向基函数网络

(1)与BP网络的区别:BP神经网络是一种全局逼近网络,学习速度慢,不适合实时性要求高的场合。径向基函数网络结构简单、收敛速度快、能够逼近任意非线性函数。
(2)径向基网络可分为正则化网络和广义网络两种。在工程实践中被广泛应用的是广义网络,它可由正则化稍加变化得到。

4.1 两类径向基函数网络

(1)正则化网络
在这里插入图片描述

组成:
• 第一层是由输入节点组成的,输入节点的个数等于输入向量x的维度。
• 第二层属于隐含层,由直接与输入节点相连的节点组成,一个隐含节点对应一个训练数据点,因此其个数与训练数据点的个数相同。
• 第三层是输出层包括若干个线性单元,每个线性单元与所有隐含节点相连,这里的”线性“是指网络最终的输出是各隐含节点输出的线性加权和。
性质:
• 正则化网络是一个通用逼近器,意味着,只要有足够多的隐含节点,它就可以以任意精度逼近任意多远连续函数。
• 给定一个未知的非线性函数f,总可以选择一组系数,使得网络对f 的逼近是最优的。
特点: 
• 隐含节点的个数等于输入训练样本的个数,因此如果训练样本的个数N过大,网络的计算量将是惊人的,从而导致过低的效率甚至根本不可能实现。计算权值wij时,需要计算N×N矩阵的逆,其复杂度大约是O(N3),随着N的增长,计算的复杂度迅速增大。
• 矩阵过大,病态矩阵的可能性越高。矩阵A的病态是指,求解线性方程组Ax = b时,A中数据的微小扰动会对结果产生很大影响。病态成都往往用矩阵条件数来衡量,条件数等于矩阵最大特征值与最小特征值的比值。
(2)广义网络
在这里插入图片描述

区别于正则化网络:正则化网络隐含节点数I等于输入训练样本的个数M,即是I=M。但广义网络隐含层I个节点个数小于M个输入节点,I<M。

4.2 径向基网络与多层感知器的比较

(1)径向基网络有三层网络,只有一个隐含层,而多层感知器可以有多个隐含层。
(2)径向基网络的隐含层与输出层完全不同,隐含层采用非线性函数(径向基函数)作为基函数,而输出层采用线性函数,两者作用不同。在多层感知器中,隐含层和输出层没有本质区别,一般都采用非线性函数。由于径向基网络输出的是线性加权和,因此学习速度更快
(3)径向基网络的基函数计算的是输入向量与基函数中心之间的欧式距离(两者取差值,再取欧几里得范数),而多层感知器的隐单元的激励函数则计算输入向量与权值的内积。
(4)多层感知器对非线性映射全局逼近,而径向基函数使用局部指数衰减的非线性函数进行局部逼近,因此要达到相同的精度,径向基函数需要的参数比多层感知器少得多。
(5)BP网络使用sigmoid函数作为激励函数,有很大输入可见域。径向基函数网络引入RBF函数,当输入值偏离基函数中心时,输出逐渐减小,并很快趋于零。这一点比多层感知器更符合神经元响应基于感受域这一特点,比BP网络具有一更深 理论基础。同事由于输入可见域很小,径向基函数网络需要更多的径向基神经元。

4.3 径向基函数的改进–概率神经网络

在这里插入图片描述

(1)简介:在径向基神经网络的基础上,融合密度函数估计和贝叶斯决策理论。在某些易满足的条件下,以概率神经网络(PNN) 实现的判别边界渐进地逼近贝叶斯最佳判定面。
(2)组成(输入层、隐含层、求和层、输出层)
• 第一层为输入层,用于接收来自训练样本的值,将数据传递给隐含层,神经元个数与输入向量长度相等。
• 第二层隐含层是径向基层,每一个隐含层的神经元节点拥有一个中心,该层接收输入层的样本输入,计算输入向量与中心的距离,最后返回一个标量值,神经元个数与输入训练样本个数相同。
• 求和层把隐含层中属于同一类的隐含神经元的输出做加权平均。求和层的神经元个数与输出类别数目M相同。
• 输出层取求和层中最大一个作为输出的列别。
(3)特点:PNN 网络采用有监督学习,这是在训练数据中指出。求和层中神经元只与隐含层中对应类别的神经元有连接,与其他神经元则没有连接。这是PNN与 RBF函函数网络最大的区别。
(4)概率神经网络的优点
• 训练容易,收敛速度快,从而非常适用于实时处理。在基于密度函数核估计的PNN网络中,每一个训练样本确定一个隐含层神经元,神经元的权值直接取自输入样本值。
• 可以实现任意的非线性逼近,用PNN网络所形成的判决曲面与贝叶斯最优准则下的曲面非常接近。
• 隐含层采用径向基的非线性映射函数,考虑了不同类别模型样本的交错影响,具有很强的容错性。只要有充足的样本数据,概率神经网络都能收敛到贝叶斯分类器,没有BP网络的局部极小值问题。
• 隐含层的传输函数可以选用各种用来估计概率密度的基函数,且分类结果对基函数的形式不敏感。
• 扩充性能好。网络学习过程简单,增加或减少类别模式时不需要重新进行长时间的训练学习
• 各层神经元的数据比较稳定,因而易于硬件实现。

4.4 径向基函数的改进–广义回归神经网络

在这里插入图片描述

(1)组成(输入层、隐含层、加和层、输出层)
• 输入层接受样本的输入,神经元个数等于输入向量的维数,其传输函数是简单的线性函数。
• 隐含层是径向基层,神经元个数等于训练样本个数,基函数一般采用高斯函数
• 加和层的神经元分为两种,一种是神经元计算隐含层各神经元的代数和,称为分母单元,第二种神经元计算隐含层神经元的加权和,称为分子单元,权值为各训练样本的期望输出值,称为分子单元。
• 输出层将加和层的分子单元、分母单元的输出相除,即得y的估计值。
(2)特点
• 对于基本的广义神经网络,隐含层的平滑因子采用同一个值,由于网络并不知道样本数据的概率分布,因此不能从样本中求得理想的光滑因子,因此这里采用一维寻优的方式来求取。为了确保网络的推广性能,对参与训练的样本以缺一交叉验证的方式来寻优。

5 自组织竞争神经网络

(1)简介
自组织竞争神经网络采用了与前向神经网络完全不同的思路。采用了竞争学习的思想,网络的输出神经元之间相互竞争,同一时刻只有一个输出神经元获胜,称为“胜者全得”神经元或获胜神经元。这种神经网络的生物学基础是神经元之间的侧抑制现象。

5.1 竞争神经网络

在这里插入图片描述

(1)简介
竞争型神经网络只有两层,输出层又称为核心层。输入层到核心层的权值是随机给的,因此每个核心层神经元获胜的概率相同,但最后会有一个兴奋最强的神经元。兴奋最强的神经元战胜了其他神经元,在权值调制中其兴奋程度得到进一步加强,而其他神经元保持不变。竞争神经网络通过这种竞争学习的方式获得训练的分布信息,每个训练样本都对应一个兴奋的核心层神经元,也就是对应一个类别,当有新样本输入时,就可以根据兴奋的神经元进行模式分类。

5.2 竞争神经网络的改进–自组织特征映射网络

在这里插入图片描述

(1)简介
是一种竞争性神经网络,同时引入了自组织特性。自组织现象来源于人脑细胞的自组织性:大脑中不同区域有着不同的作用,不同的感官输入由不同位置的脑细胞进行处理,这种特性不完全来自遗传,更依赖于后天的学习和训练。
(2)与竞争神经网络的区别和联系
联系
• 非常类似,神经元都具有竞争性,都采用无监督的学习方式。
• 同样包含输入层、输出层两层网络
区别
• 自组织映射网络除了能学习输入样本的分布外,还能够识别输入向量的拓扑结构。
• 自组织网络中,单个神经元对模式分类不起决定性的作用,需要靠多个神经元协同作用完成。
• 自组织神经网络输出层引入网络的拓扑结构,以更好的模拟生物学中的侧抑制现象。
• 主要区别是竞争神经网络不存在核心层之前的相互连接,在更新权值时采用了胜者全得的方式,每次只更新获胜神经元对应的连接权值;而自组织神经网络中,每个神经元附近一定领域内的神经元也会得到更新,较远的神经元则不更新,从而使得几何上相近的神经元变得更相似。

6 反馈神经网络

反馈神经网络的输出除了与当前输入和网络权值有关还与网络之前的输入有关

6.1 Hopfield 网络

在这里插入图片描述

(1)Hopfield网络分为离散型和连续性两种网络模型。
(2)从上图中可以看出每个神经元的输出都成为其他神经元的输入,每个神经元的输入又都来自其他神经元。神经元输出的数据经过其他神经元之后最终又反馈给自己。

6.1.1 离散Hopfield网络

在这里插入图片描述

(1)简介
输出值只能取0或1,分别表示神经元的抑制和兴奋状态。如上图所示输出神经元的取值为0/1或-1/1。对于中间层,任意两个神经元间的连接权值为wij = wji ,神经元的连接是对称的。如果wij等于0,即神经元自身无连接,则成为无自反馈的Hopfield网络,如果wij != 0,则成为有自反馈的Hopfield网络。但是出于稳定性考虑,一般避免使用有自反馈的网络。

6.1.2 连续Hopfield网络

在这里插入图片描述

(1)特点
连续的Hopfield网络结构和离散的Hopfield网络的结构相同,不同之处在于传输函数不是阶跃函数或符号函数,而是S型的连续函数,如sigmoid函数。每个神经元由一个运算放大器和相关的元件组成,其输入一方面由输出的反馈形成,另一方面也有以电流形式从外界连接过来的输入。

6.2 典型的局部回归网络–Elman神经网络

在这里插入图片描述

(1)简介
基本的Elman伸进网络由输入层、隐含层、连接层、输出层组成。与BP网络相比,在结构上了多了一个连接层,用于构成局部反馈。
(2)特点
连接层的传输函数为线性函数,但是多了一个延迟单元,因此连接层可以记忆过去的状态,并在下一时刻与网络的输入一起作为隐含层的输入,使网络具有动态记忆功能,非常适合时间序列预测问题。
输出层和连接层的的传递函数为线性函数,隐含层的传递函数则为某种非线性函数,如Sigmoid函数。由于隐含层不但接收来自输入层的数据,还要接收连接层中存储的数据,因此对于相同的输入数据,不同时刻产生的输出也可能不同。输入层数据反映了信号的空域信息,而连接层延迟则反映了信号的时域信息,这是Elman网络可以用于时域和空域模式识别的原因。

6.3 节点自反馈的单层网络–盒中脑模型(BSB)

(1)简介
盒中脑(Brain-State-in-a-Box,BSB)模型是一种节点之间存在横向连接和节点自反馈的单层网络,可以用作自联想最邻近分类器,并可存储任何模拟向量模式。该模型是一种神经动力学模型,可以看作是一个有幅度限制的正反馈系统。
(2)特点
BSB模型实际上是一种梯度下降法,在迭代的过程中,使得能量函数达到最小。

7 随机神经网络

(1)核心思想
在网络中加入Giallo因素,网络并不是确定地向能量函数减小的方向演化,而是以一定较大的概率向这个方向演化,以保证迭代的正确方向,同时向能量函数增大的方向运行的概率也存在,以防止陷入局部最优。

7.1 随机神经网络的一种–基于模拟退火算法的Boltzmann机

在这里插入图片描述

(1)简介
在Hopfield网络中引入随机机制,提出了Boltzmann机,这是第一个由统计力学导出的多层学习机,可以对给定数据集的固有概率分布进行建模,可以用于模式识别等领域。得此名的原因是,它将模拟退火算法反复更新网络状态,网络状态出现的概率服从Boltzmann分布,即最下能量状态的概率最高,能量越大,出现的概率越低。
由随机神经元组成,神经元分为可见神经元和隐藏神经元,与输入/输出有关的神经元为可见神经元,隐藏神经元需要通过可见神经元才能与外界交换信息。
(2)特点
Boltzmann机学习的主要目的在于产生一个神经网络,根据Bolazmann分布对输入模型进行正确建模,训练挽留过的权值,当其导出的可见神经元状态的概率分布和被约束时完全相同时,训练就完成了。

  • 35
    点赞
  • 301
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Better Bench

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值