《机器学习》第5章 神经网络

5.1 神经元模型

神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所做出的交互反应。

神经网络中最基本的成分是神经元模型,即上述定义中的简单单元。

M-P神经元模型
在这里插入图片描述
理想中的跃阶函数:
在这里插入图片描述
实际常用Sigmoid作激活函数:
在这里插入图片描述

把许多个这样的神经元按一定层次结构连接起来就形成了神经网络。

5.2 感知机与多层网络

感知机由两层神经元组成,如下图所示,输入层接收外界输入信号后传递给输出层,输出层是M-P神经元,亦称阈值逻辑单元。
在这里插入图片描述
感知机权重:
在这里插入图片描述
在这里插入图片描述

要解决非线性可分问题,需要考虑使用多层神经元.如下图简单的两层感知机就能解决异或问题,输入层与输出层之间的一层神经元被称为隐层或隐含层,隐含层和输出层神经元都是拥有激活函数的功能神经元。

在这里插入图片描述
每层神经元与下一层神经元完全互连,神经元之间不存在同层连接,也不存在跨层连接,这样的神经网络结构通常称为“多层前馈神经网络”。
在这里插入图片描述

5.3 误差逆传播算法

误逆差传播算法(BP):训练多层网络,BP算法不仅可用于多层前馈神经网络,还可用于其他类型的神经网络。但通常说“BP网络”时,一般指用BP算法训练多层前馈神经网络。
在这里插入图片描述
假定神经网络的输出为:
在这里插入图片描述

则均方误差为:
在这里插入图片描述
确定参数:
网络中有(d+l+1)q+l个参数需确定:输入层到隐层的d × q个权值、隐层到输出层的q × l 个权值、q个隐层神经元的阙值、l个输出层神经元的阈值.BP是一个迭代学习算法,在迭代的每一轮中采用广义的感知机学习规则对参数进行更新估计。任意参数v的估计公式为:
在这里插入图片描述

算法:
在这里插入图片描述

目标:最小化训练集D上的累积误差:
在这里插入图片描述

缓解BP过拟合的两种方式:

  • (1)早停:将数据分成训练集和验证集,训练集用来计算梯度、更新连接权和阈值,验证集用来估计误差,若训练集误差降低但验证集误差升高,则停止训练,同时返回具有最小验证集误差的连接权和阈值。
  • (2)正则化:在误差目标函数中增加一个用于描述网络复杂度的部分,例如连接权与阈值的平方和,则误差目标函数(5.16)改变为:
    在这里插入图片描述

5.4 全局最小与局部最小

在这里插入图片描述
在这里插入图片描述

5.5 其他常见神经网络

RBF网络

RBF:径向基函数,是一种单隐层前馈神经网络,它使用径向基函数作为隐层神经元激活函数,而输出层则是对隐层神经元输出的线性组合。
假定输入为d维向量x,输出为实值,则RBF网络可表示为:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

ART网络

竞争型学习是神经元网络中一种常用的无监督学习策略,在使用该策略时,网络的输出元神经相互竞争,每一时刻仅有一个竞争获胜的神经元被激活,其他神经元的状态被抑制。这种机制被称为“胜者通吃”原则。

ART:自适应协振理论,竞争型,该网络由比较层、识别层、识别阈值和重置模块构成。
比较层负责接收输入样本,并将其传递给识别层神经元。识别层每个神经元对应一个模式类,神经元数目可在训练过程中动态增长以增加新的模式类。

ART比较好的缓解了竞争型学习中“可塑性-稳定性窘境”,可塑性是指神经网络要有学习新知识的能力,而稳定性是指神经网络在学习新知识时要保持对旧知识的记忆。这就使得ART网络有一个很重要的优点:可进行增量学习或在线学习。

SOM网络

SOM:自组织映射,一种竞争学习型的无监督神经网络,它能将高维输入数据映射到低维空间,同时保持输入数据在高维空间的拓扑结构,即将高维空间中相似的样本点映射到网络输出层中的临近神经元。

SOM的训练过程很简单:在接收到一个训练样本后,每个输出层神经元会计算该样本与自身携带的权向量之间的距离,距离最近的神经元成为竞争获胜者,称为最佳匹配单元(best matching unit).然后,最佳匹配单元及其邻近神经元的权向量将被调整,以使得这些权向量与当前输入样本的距离缩小.这个过程不断迭代,直至收敛.
在这里插入图片描述

级联相关网络

一般的神经网络模型通常假定网络结构是事先固定的,训练的目的是利用训练样本来确定合适的连接权、阈值等参数.与此不同,结构自适应网络则将网络结构也当作学习的目标之一,并希望能在训练过程中找到最符合数据特点的网络结构.级联相关(Cascade-Correlation)网络[Fahlman and Lebiere, 1990]是结构自适应网络的重要代表.
在这里插入图片描述
与一般的前馈神经网络相比,级联相关网络无需设置网络层数、隐层神经元数目,且训练速度较快,但其在数据较小时易陷入过拟合.

Elman网络

与前馈神经网络不同,“递归神经网络”(recurrent neural networks)允许网络中出现环形结构,从而可让一些神经元的输出反馈回来作为输入信号.这样的结构与信息反馈过程,使得网络在t时刻的输出状态不仅与t时刻的输入有关,还与t―1时刻的网络状态有关,从而能处理与时间有关的动态变化.
在这里插入图片描述

Boltzmann机

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5.6 深度学习

在这里插入图片描述

  • 4
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
### 回答1: 粒子群算法是一种基于群体智能的优化算法,它通过模拟群体中个体的行为来解决最优化问题。与传统的优化算法相比,粒子群算法具有全局搜索能力强、易于实现和收敛速度快等优势。而BP神经网络是一种常用的人工神经网络模型,它通过反向传播算法来调整网络的权值阈值。 粒子群算法可以用于优化BP神经网络权值阈值。具体来说,粒子群算法通过模拟群体中粒子的位置和速度的变化来搜索最优解。对于每个粒子而言,其位置表示BP神经网络权值阈值,而速度则表示对应参数的调整幅度。 在粒子群算法中,每个粒子都有自己的位置和速度,并根据当前的最优解和全局最优解来更新自身的位置和速度。对于BP神经网络而言,可以将每个粒子的位置视为神经网络权值阈值,速度则表示对应参数的调节量。通过不断迭代更新,粒子群算法能够搜索到BP神经网络的最优权值阈值组合,从而提高网络的性能。 需要注意的是,在应用粒子群算法优化BP神经网络时,需要精心选择算法中的参数,例如粒子的数目、速度的惯性权重、学习系数等,以确保算法能够有效地搜索到最优解。 总之,粒子群算法是一种有效的优化方法,可以用于优化BP神经网络权值阈值。通过模拟群体中粒子的行为,粒子群算法能够搜索到网络的最优解,提高网络的性能。 ### 回答2: 粒子群算法(Particle Swarm Optimization,PSO)是一种优化算法,可以用于优化BP神经网络权值阈值。 BP神经网络是一种常用的模式识别和函数逼近工具,它的性能取决于权值阈值的选择。然而,手动选择权值阈值往往需要大量的经验和时间,而且效果不一定好。因此,使用优化算法来自动找到最优的权值阈值,可以提高神经网络的性能。 粒子群算法是一种基于群体智能的优化算法,它模拟了鸟群觅食的行为。在PSO算法中,每个粒子代表一个解(即一组权值阈值),而整个粒子群代表了解空间中的搜索空间。算法通过不断更新粒子的位置和速度来搜索最佳解。 具体地,粒子群算法通过计算每个粒子的适应度值(即神经网络的性能指标),来评估解的好坏。然后,通过比较当前粒子和邻域粒子的适应度值,找到最优解。在更新粒子的位置和速度时,采用一定的加权方法,将当前最优解和个体历史最优解进行综合,以便有一定的局部搜索和全局搜索能力。 通过不断迭代,粒子群算法可以逐渐优化权值阈值,并逼近最优解。在实际应用中,可以设置适当的迭代次数和参数值,以平衡搜索效率和结果的准确性。 总之,粒子群算法可以用于优化BP神经网络权值阈值,提高神经网络的性能和准确度。 ### 回答3: 粒子群算法(Particle Swarm Optimization,PSO)是一种启发式优化算法,常用于解决连续非线性优化问题。而BP神经网络(Backpropagation Neural Network,BPNN)是一种常用的人工神经网络模型,可以用于解决分类和回归等问题。 粒子群算法与BP神经网络的结合是为了进一步提高神经网络的性能,主要通过优化BP神经网络权值阈值来实现。 具体而言,粒子群算法通过模拟鸟群觅食的行为,将种群中的个体(粒子)看作是搜索解空间中的潜在解,每个粒子都有自己的位置和速度。其中,位置表示了神经网络权值阈值的设置,速度表示了神经网络参数的变化速率。 在粒子群算法中,每个粒子的适应度(即神经网络的性能指标)用来评价其位置的好坏,并通过与历史最优位置进行比较来更新粒子的速度和位置,以迭代地搜索更优的解。在优化过程中,不断调整粒子的位置和速度,直到找到适应度最优的粒子,即找到了优化后的权值阈值。 通过粒子群算法优化BP神经网络权值阈值,可以提高神经网络的收敛速度和模型的泛化能力。粒子群算法具有全局搜索的特性,并且能够逐渐逼近最优解,因此能够有效地避免BP神经网络陷入局部最优解。 总之,粒子群算法通过优化BP神经网络权值阈值,可以提高神经网络的性能,加快学习速度,提高模型的准确性和鲁棒性。通过不断的迭代和搜索,粒子群算法能够寻找到更好的权值阈值,从而提升BP神经网络的优化效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

太极生两鱼

要天天开心哦!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值