神经网络基础和感知器

神经元的变换函数

从净输入到输出的变换函数称为神经元的变换函数,即

  1. 阈值型变换函数
    比如符号函数

  2. 非线性变换函数
    比如单极性Sigmoid函数


    又比如双极性S型(又曲正切)函数

  3. 分段性变换函数
    比如

  4. 概率型变换函数
    这时输入与输出之间的关系是不确定的,需要用一个随机函数来描述输出状态为1或为0的概率。设输出为1的概率为

    T为温度参数,这种神经元模型也称为热力学模型。

学习规则

改变权值的规则称为学习规则或学习算法。

学习规则 权值调整

权值初始化 

学习方式 变换函数 
向量式 元素式
 Hebbian 

 

 0附近的小随机数无导师 任意 
离散Percrptron  

 

任意 有导师  二进制
连续感知器δ规则  

 

 任意 有导师连续 
 最小均方LMS(Widrow-Hoff规则) 

 

 任意有导师 任意 
 相关Correlation 

 
有导师 任意 

 胜者为王

Winner-take-all

 

 

随机,归一化 无导师  连续
外星Outstar  

 

 

 0有导师 连续 

Hebb学习规则指出:当神经元的突触前膜电位与突触后膜电位同时为正时,突触传导增强;电位相反时,突触传导减弱。应预先设置权值饱和值,防止输入和输出正负始终一致时出现权值无约束增长。

η是学习率。

在离散感知器学习规则中,期望输出dj和实际输出sgn(WjTX)取值都是-1和1。这种感知器仅适合于二进制神经元。

连续感知器δ规则要求变换函数是可导的,因此只能用于有导师学习中定义的连续变换函数,如Sigmoid函数。实际上δ规则是由输出与期望的最小平方误差推导出来的。

最小均方学习规则实际上是δ规则的特例--在δ规则中令。最小均方学习规则与变换函数无关,不需要对变换函数求导,不仅学习速度快,而且具有较高的精度。它能使实际输出与期望输出之间的平均方差最小(什么意思?why?)。

胜者为王规则中有一个竞争层,对于特定的输入,竞争层的每个神经元均有输出响应,其中响应最大的神经元j*成为获胜神经元,只有获胜神经元才有权调整其权值向量。学习率应该随着学习的进展而减小。

外星学习规则使权向量向期望输出靠拢。

单层感知器

 单层感知器只有输入层和输出层,它仅对线性可分问题具有分类能力,在实际中很少使用。

多层感知器

 隐藏层的加入使感知器能够解决非线性的分类问题,并且双隐藏层感知器足以解决任何复杂的分类问题。

当变换函数从线性函数变为非线性函数时,分类边界的基本元素从直线变为曲线,这样整个分类边界线变成连续光滑的曲线,从而提高感知器的分类能力。

对于各隐藏层节点来说,不存在期望输出,因而学习规则对隐藏层权值不适用。

自适应线性单元(Adaptive Linear Neuron)

使用最小均方学习规则LMS(Least Mean Square),即最小二乘法。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值