ESN和LSM提出的背景
RNN(Recurrent Neural Network),被证明具有很好的函数逼近能力和记忆能力,但训练起来却十分困难。
Buonomano 在早期工作中提出了用具有暂塑性(short-term plasticity、dynamic synapses)的脉冲神经元(spiking neurons)构成的随机网络,他发现暂塑性使得循环网络具有更慢的动态:保持随机连接的循环网络不变,只需要训练一个简单的对网络输出特征做处理的分类/回归模型。
上述训练思想分别被Jaeger 用在回声状态网络(Echo State Network)上,被 Maass 用在液体状态机(Liquid State Machine)上,构成了现在储备池计算的基石。
ESN和LSM的共同点和区别
共同点:
两者的隐藏层都被称为储蓄池,而储蓄池内部的神经元都是循环