线性神经网络模型与学习算法

线性神经网络类似于感知器,但是线性神经网络的激活函数是线性的,而不是硬转移函数,因此,线性神经网络的输出可以是任意值,而感知器的输出不是0就是1。线性神经网络和感知器一样只能求解线性可分的问题。因此,线性神经网络的限制和感知器相同。

线性神经元网络模型

线性神经元与感知器神经元具有相似的结构,唯一的不同是线性神经元使用了线性传递函数purelin,因此与感知器神经网络不同,线性神经网络的输出可以是任意的。

线性神经元的输出可以由以下公式进行计算

y=purelin(v)=purelin(ωp+b)=ωp+b

当输出y等于0的时候,可以画出它们的分界线。位于分界线上面的输入向量能够产生大于0的网络输出,位于分界线下面的输入向量能产生小于0的网络输出。因此线性神经元只能逼近一个线性函数,而不能完成逼近非线性函数的计算。其局限性与感知神经网络相同。

线性神经网络的学习算法

线性神经网络采取的学习规则是Widrow-Hoff学习规则,又称为最小均放误差(LMS)学习算法,它基于负梯度下降的原则来减小网络的训练误差。最小均方误差学习算法也属于监督类学习算法。

假设 pk=(p1,p2,,pR(k)) 表示网络的输入向量, dk=(d1(k),d2(k),,dS(k)) 表示网络的期望输出向量, yk=(y1(k),y2(k),,yS(k)) 表示网络的实际输出向量,其中 k=1,2,,m 表示输入向量与对应的期望输出向量样本对的数量。LMS学系规则就是要减小这些误差平方和的均值,定义如下:

mse=1mk=1me2(k)=1mk=1m(d(k)y(k))2

可以看出,其性能指标是一个二次方程,所以要么具有全局最小值,要么没有最小值,而选择什么样的输入向量恰恰会决定网络的性能指标会有什么样的最小值。

如果考虑第k次循环时训练误差的平方对网络权值和阈值的二阶偏微分,会得到如下公式:

e2(k)ωij=2e(k)e(k)ωij

e2(k)b=2e(k)e(k)b

再计算此时的训练误差对网络权值和阈值的一阶偏微分:

e(k)ωij=eωij[d(k)(Wp(k)+b)]

或者:
e(k)ωij=eωij[d(k)(i=1Rωijpi(k)+b)]

其中 pi(k) 表示第k次循环中的第i个输入向量,则有:

e(k)ωij=pi(k)

e(k)b=1

根据负梯度下降原则,网络权值和阈值的改变量应该是 2ηe(k)p(k) 2ηe(k)

所以网络权值和阈值修正公式如下:

ω(k+1)=ω(k)+2ηe(k)pT(k)

b(k+1)=b(k)+2ηe(k)

其中 η 为学习率

η 取值较大时,可以加快网络的训练速度,但是如果 η 的值太大,会导致网络稳定性的降低和训练误差的增加。所以,为了保证网络进行稳定的训练,学习率 η 的值必须选择一个合适的值。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值