python中的row函数均方_Python实现最小均方算法(lms)

lms算法跟Rosenblatt感知器相比,主要区别就是权值修正方法不一样。lms采用的是批量修正算法,Rosenblatt感知器使用的

是单样本修正算法。两种算法都是单层感知器,也只适用于线性可分的情况。

详细代码及说明如下:

'''

算法:最小均方算法(lms)

均方误差:样本预测输出值与实际输出值之差平方的期望值,记为MES

设:observed 为样本真值,predicted为样本预测值,则计算公式:

(转换为容易书写的方式,非数学标准写法,因为数学符号在这里不好写)

MES=[(observed[0]-pridicted[0])*(observed[0]-pridicted[0])+....

(observed[n]-pridicted[n])*(observed[n]-pridicted[n])]/n''''''

变量约定:大写表示矩阵或数组,小写表示数字

X:表示数组或者矩阵

x:表示对应数组或矩阵的某个值''''''

关于学习效率(也叫步长:控制着第n次迭代中作用于权值向量的调节)。(下面的参数a):

学习效率过大:收敛速度提高,稳定性降低,即出结果快,但是结果准确性较差

学习效率过小:稳定性提高,收敛速度降低,即出结果慢,准确性高,耗费资源

对于学习效率的确定,有专门的算法,这里不做研究。仅仅按照大多数情况下的选择:折中值'''import numpy as np

a=0.1  ##学习率 0

最后的权重为W([0.1,0.1]),则:0.1x+0.1y=0 ==>y=-x

即:分类线方程为:y=-x'''def sgn(v):    if v>0:        return 1    else:        return 0 ##跟上篇感知器单样本训练的-1比调整成了0,为了测试需要。-1训练不出结果

##读取实际输出   '''

这里是两个向量相乘,对应的数学公式:

a(m,n)*b(p,q)=m*p+n*q

在下面的函数中,当循环中xn=1时(此时W=([0.1,0.1])):

np.dot(W.T,x)=(1,1)*(0.1,0.1)=1*0.1+1*0.1=0.2>0 ==>sgn 返回1'''def get_v(W,x):    return sgn(np.dot(W.T,x))##dot表示两个矩阵相乘##读取误差值def get_e(W,x,d):    return d-get_v(W,x)##权重计算函数(批量修正)'''

对应数学公式: w(n+1)=w(n)+a*x(n)*e

对应下列变量的解释:

w(n+1) <= neww 的返回值

w(n)   <=oldw(旧的权重向量)

a      <= a(学习率,范围:0

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值