极限学习机(ELM) 算法及MATLAB程序实现

极限学习机(ELM)是一种快速的单隐藏层前馈神经网络训练方法,解决了传统误差反向传播算法的效率问题。ELM无需调整输入权重和隐藏层偏置,仅需确定输出权重,具有高效、泛化能力强等优点。MATLAB程序可在GB.Huang教授网站获取,实验结果显示训练和测试时间极短,准确率较高。
摘要由CSDN通过智能技术生成

极限学习机

       单隐藏层反馈神经网络具有两个比较突出的能力: 

1)可以直接从训练样本中拟 合 出 复 杂 的 映 射 函 数f :x ^ t 

(2 )可以为大量难以用传统分类参数技术处理的自然或者人工现象提供模型。但是单隐藏层反馈神经网络缺少比较快速的学习方 法 。误差反向传播算法每次迭代需要更新n x(L+ 1) +L x (m+ 1 )个 值 ,所花费的时间远远低于所容忍的时间。经常可以看到为训练一个单隐藏层反馈神经网络花费了数小时,数天或者更多的时间。
       基于以上原因,黄广斌教授对单隐藏层反馈神经网络进行了深入的研究,提
出并证明了两个大胆的理论:


       从以上两条理论我们可以看出,只要激励函数g:R ^ R满足在任意区间上无限可微,那么wtbt可以从R的n维R空间的任何区间内根据任意连续的概率分布随机生成 ,也就是说单隐藏层前馈神经网络无需再对wtbt进行调整;又因为式子||TH*beta||_f=0以概率一成立,我们发现输出层的偏置也不再需要。那么一个新型的但隐藏层反馈神经网络如图2 .3表示 。
对比图
2.2,缺少了输出层偏 置bs,而输入权重w和隐藏层偏置bi随机产生不需要调整,那么整个网络仅仅剩下输出权重beta一项没有确定。因此极限学习机
应运而生。令神经网络的输出等于样本标签,如式
(2-11) 表示

评论 68
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值