学习记录task4--神经网络

本文介绍了M-P神经元模型,包括其工作原理和常用激活函数如sigmoid。讨论了感知机和多层网络的区别,强调感知机的局限性及如何通过多层结构解决非线性问题。还详细讲解了误差逆传播算法(BP算法),以及全局最小和局部极小问题的训练方法,如遗传算法和模拟退火。
摘要由CSDN通过智能技术生成

1.M-P神经元模型

接受n个输入,并给各个输入赋予权重,计算加权和,然后与自身的阈值Θ进行比较(作减法),最后通过激活函数处理得到输出。

理想中的激活函数是阶跃函数也就是sgn函数,但实际用的是sigmoid函数(因为其连续光滑的较好性质),将大范围变化的输入挤压到(0,1)输出,也称为挤压函数。

2感知机和多层网络

❶感知机模型:阶跃函数作为激活函数,是一种分类模型。

❷感知机学习策略:随机初始化ω,b,将全体训练样本带入模型找出误分类样本集合M,损失函数为Σ(估计值-真实值)x(阶跃函数内函数)。

❸感知机学习算法:采用随机梯度下降法,一次随机选取一个误分类点使其梯度下降,然后根据错误程度进行权重调整。

感知机只有一层功能神经元,只在输出层神经元进行激活函数处理,只能分类线性可分的数据集。要解决非线性可分的问题,使用多层功能神经元 。

多层前馈网络:每层神经元与下一层神经元全互连,神经元之间不存在同层连接,也不跨层连接。将神经网络(neutral networks)记为NN看作一个特征加工函数,回归用多元线性函数,分类用logit函数。

3.误差逆传播算法(BP算法)

标准BP算法:针对单个样例,参数更新频繁,多次迭代,不同样例之间的更新效果可能“抵消”,类似基于随机梯度下降。

累积BP算法:针对累积误差最小化,参考数更新频率低,类似基于标准梯度下降。

4.全局最小与局部极小

遗传算法,模拟退火等,用来训练模型接近全局最小,但缺乏理论保障,大都是启发式。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值