用途:
CNN一般用于图像处理中
RNN一般用于自然语言处理
特征的时序相关性:
每一次训练都考虑到之前的结果(有了时序性的连接)
前一时刻的隐层输出反过来作为下一次隐层输入的一部分
存在问题:个人理解RNN网络会考虑到所有的之前的结果,如果时序很长,那必然会导致前后关联没那么大,这样效果不好
LSTM:
为解决这一问题,有选择性进行时序信息遗忘
加入C参数控制单元,可以改变模型的复杂度,选择要保留的信息
用途:
CNN一般用于图像处理中
RNN一般用于自然语言处理
特征的时序相关性:
每一次训练都考虑到之前的结果(有了时序性的连接)
前一时刻的隐层输出反过来作为下一次隐层输入的一部分
存在问题:个人理解RNN网络会考虑到所有的之前的结果,如果时序很长,那必然会导致前后关联没那么大,这样效果不好
LSTM:
为解决这一问题,有选择性进行时序信息遗忘
加入C参数控制单元,可以改变模型的复杂度,选择要保留的信息