七、宽度学习系统Broad Learning System

宽度学习系统(BLS)源自2018年的研究,是对随机向量函数连接网络(RVFLNN)的改进。BLS强调特征提取和线性变换,其增量形式允许在数据和特征变化时进行高效更新。与深度学习不同,宽度学习不增加网络层次,而是增加同一层的节点数量。
摘要由CSDN通过智能技术生成

1、宽度学习的发展

宽度学习系统(BLS) 的提出最早源于澳门大学科技学院院长陈俊龙和其学生于2018年1月发表在IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS,VOL. 29, NO. 1 的一篇文章,题目叫《Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture 》。文章的主旨十分明显,就是提出了一种可以和深度学习媲美的宽度学习框架。
宽度学习系统的前身实际上是已经被人们研究了很久的随机向量函数连接网络 random vector functional-link neural network (RVFLNN),如图下图所示:
在这里插入图片描述
该网络就是在单层前馈网络中增加了从输入层到输出层的直接连接。网络的第一层也叫输入层,第二层做增强层,第三层是输出层。具体来看,网络中有三种连接,分别是:
• (输入层 => 增强层)加权后有非线性变换
• (增强层 => 输出层)只有线性变换
• (输入层 => 输出层)只有线性变换

所以在随机向量函数连接网络中只有增强层是真正意义上的神经网络单元,因为只有它带了激活函数,网络的其他部分均是线性的。下面我们将这个网络结构进行简单的变形,如下图所示:
当我们把增强层和输入层排成一行时,并将它们视为一体,那网络就成了由 A(输入层+增强层)到 Y (输出层)的线性变换。线性变换对应的权重矩阵 W 就是输入层和增强层到输出层之间的线性连接。对于输入层到增强层之间的连接权重W_h和偏差β_h随机初始化并固定不变,如果我们固定输入层到增强层之间的权重W_h和偏差β_h,那么对整个网络的训练就是求出 A (输入层+增强层)到 Y(输出层) 之间的变换 W,而 W 的确定非常简单:
在这里插入图片描述

2、宽度学习系统(BLS)

上面我们介绍的是随机向量函数连接网络(RVFLNN)及其变形,下面我们对宽度学习系统(BLS)进行介绍。宽度学习系统(BLS)对随机向量函数连接网络(RVFLNN)的输入层做了一点改进,就是不直接用原始数据作为输入层,而是先对原始数据做了一些变换,相当于特征提取,将变化后的特征作为原RVFLNN的输入层。如下图所示:
在这里插入图片描述

如右侧所示的宽度学习系统,先将原始数据X经过 ϕ ( X W ( e i ) + β ( e i , i = 1 … n ) ) ϕ(XW_(e_i )+β_(e_i,i =1…n)) ϕ(XW(ei)+β(eii=1n))进行计算得到映射特征( Z 1 , Z 1 … . . Z n ) Z_1,Z_1…..Z_n) Z1Z1..Zn作为宽度学习网络的输入值。再将输入值经过 ξ ( [ Z 1 , Z 1 … . . Z n ] W ( h j ) + β ( h j ) j = 1 , … m ) ξ([Z_1,Z_1…..Z_n ] W_(h_j )+β_(h_j ) j=1,…m) ξ([Z1Z1..Zn]W(h

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值