神经网络之区别 开门见山的说: 这条路太te me 难了 感知器:只能训练简单的函数,不能训练复杂的。于是出现了下面的东西。 多层感知器:能够训练更加复杂的模型,但是极易陷入局部最优,会出现梯度弥散。 DNN:模型和多层感知器差不多,但是参数量大,极易会出现过拟合。 CNN(卷积神经网络):限制了参数,共享参数,并且挖掘了局部结构的特点。但是无法对时间序列的变化建模。 RNN(循环神经网络):解决了时间序列的问题,但是又出现了梯度弥散的问题。 LSTM:可以拟合序列数据,通过遗忘门和输出门忘记部分信息来解决梯度消失的问题。