论文相关内容
本文中提出的方法:
只有一层隐网络,输入层和隐层间的权值还有偏置项可以随机赋值,然后直接计算隐层输出矩阵H(H中的一列表示隐层中的一个结点),再计算输出权值β(若H为方阵则可直接计算它的逆,否则使用SVD计算它的伪逆)。
总结
1、相关背景:传统前馈神经网络过慢。
2、问题是什么:维持性能的基础上提升学习速度。
3、现有的解决方案:本文对此暂无描述。
4、作者的核心思想、创新点在哪里:本文针对单隐层前馈神经网络提出了极限学习机的方法,隐结点的偏置项和输入层到隐层的权值的值可以随机选择,然后通过逆操作求出隐层到输出层的权值即可,极大程度上加快了学习速度。
5、通过什么样的实验进行验证:在多个数据集上使用了多个算法rmse和时间作为度量标准进行多种不同的实验验证了本文模型性能的先进性。
6、对我的启发:敢于突破传统是也是创新的源泉之一。