序列预测问题,CNN、RNN各有什么优势?


 

RNN的序列和CNN的空间,是有区分的

序列问题,强调的是先后顺序,这也引申出上下文的概念,一个翻译问题,这个词的含义可能和前后的单词形成的这个组合有联系(Skip-gram),也可能是它之前的所有单词都有联系(Attention),并且,借助RNN的state这样的记忆单元,使得一个序列位置的输出在数学上和之前的所有序列的输入都是有关系的。当然原始的RNN由于梯度的乘性问题,前面的序列的影响近乎为0,这个后面又用LSTM来修正为加性问题。RNN的数学基础可以认为是马尔科夫链,认为后续的值是有前者和一些参数的概率决定的。

CNN的卷积核,强调的是空间中的窗口,这个窗口和序列问题相同之处在于同样考虑前后,但RNN没有也不会考虑到空间上下问题。类似股票的价格,也不会在同一个x上出现多个y(价格),整个空间只有一条线,这样的数据密度本身也是不适合用CNN的

我们可以设想这样的场景:使用CNN的一个 1\times n 的卷积核对一个1维特征的m个样本做处理(其实按道理这样的维度是对不上的,不过加一个转置即可,大致想象扫过那样的样本),那么它会输出一个m-n+1维的向量。但你会很容易明白本质上其实就是一个DNN的全连接了

又及:这样说来为什么不能用DNN取代RNN呢,其实和为什么不能用DNN取代CNN的答案一样,CNN和RNN同样是用一组参数作为窗口,去扫过整个样本集,而不需要像DNN一样使用一个超大规模的参数网络去连接这个样本。

 

虽然两个模型都能进行序列建模,但本质上有不同。RNN在时间维度上有个先后顺序,输入的顺序会影响输出,CNN更多的是从局部信息聚合得到整体信息,对输入进行层次信息提取。

 

CNN仅考虑当前输入,而RNN考虑当前输入以及先前接收的输入。 由于其内部存储器,它可以记忆先前的输入。

 

CNN:
1.CNN采用固定大小的输入并生成固定大小的输出。

2.CNN是一种前馈人工神经网络 - 是多层感知器的变体,旨在使用最少量的预处理。

3.CNN使用其神经元之间的连接模式,并受到动物视觉皮层组织的启发,动物视觉皮层的个体神经元以这样的方式排列,即它们  响应于平铺视野的重叠区域。

4.CNN是图像和视频处理的理想选择。

RNN:
1.RNN可以处理任意输入/输出长度。

2.与前馈神经网络不同,RNN可以使用其内部存储器来处理任意输入序列。

3.循环神经网络使用时间序列信息。 比如我上次发言的内容将影响我接下来要讲的内容。

4.RNN是文本和语音分析的理想选择。

  • 1
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CNN(卷积神经网络)和RNN(循环神经网络)是两种常见的神经网络模型,用于处理不同类型的数据和任务。 CNN是一种主要用于图像处理和计算机视觉任务的神经网络模型。它通过卷积层、池化层和全连接层等组件来提取图像中的特征,并进行分类、检测或分割等任务。CNN的核心思想是利用卷积操作来捕捉图像中的局部特征,并通过池化操作来减小特征图的尺寸和参数量。这使得CNN在处理图像数据时具有平移不变性和局部感知性的优势RNN是一种主要用于序列数据处理的神经网络模型。它通过循环连接来处理序列中的每个元素,并利用前一个时间步的隐藏状态来影响当前时间步的输出。RNN适用于处理具有时序关系的数据,如自然语言处理、语音识别和时间序列预测等任务。RNN的关键特点是能够捕捉序列中的上下文信息,并具有记忆能力,可以处理变长序列输入。 区别: 1. 数据类型:CNN主要用于处理图像数据,而RNN主要用于处理序列数据。 2. 网络结构:CNN通过卷积层和池化层等组件来提取图像中的特征,而RNN通过循环连接来处理序列中的元素。 3. 上下文信息:CNN在处理图像时,每个像素点的处理是独立的,没有考虑上下文信息;而RNN通过循环连接可以捕捉序列中的上下文信息。 4. 参数共享:CNN在卷积层中使用参数共享的方式,减少了参数量;而RNN在每个时间步都使用相同的参数,实现参数共享。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值