DNN、CNN、RNN


一、DNN

神经网络是基于感知机的扩展,而DNN可以理解为有很多隐藏层的神经网络,DNN有时也叫多层感知机(Multi-Layer perceptron,MLP)。
在这里插入图片描述
由于DNN采用的是全连接的形式,结构中的连接带来了数量级的权值参数,这不仅容易导致过拟合,也容易造成陷入局部最优。

二、CNN

优点:针对DNN存在的参数数量膨胀问题,对于CNN,并不是所有的上下层神经元都能直接相连,而是通过“卷积核”作为中介。(减少了很多参数)

特点:卷积计算实质的过程是特征提取,同时也是一种信息压缩。

卷积的数学定义

在这里插入图片描述

TextCNN

在这里插入图片描述
特点:只理解局部(单词)的含义,不理解语序

三、RNN

基本RNN

在这里插入图片描述
循环神经网络的隐藏层的值St不仅仅取决于当前这次的输入Xt,还取决于上一次隐藏层的值St-1
在这里插入图片描述

双向RNN

对于语言模型来说,很多时候光看前面的词是不够的,比如下面这句话:

我的手机坏了,我打算 一部新的手机

我们这个时候就需要双向循环神经网络。
在这里插入图片描述
双向卷积神经网络的隐藏层要保存两个值,一个A参与正向计算,另一个值A’参与反向计算。
在这里插入图片描述

梯度消失和梯度爆炸

RNN并不能很好的处理较长的序列,在训练中很容易发生梯度爆炸和梯度消失,这导致梯度不能在较长序列中一直传递下去,从而使RNN无法捕捉到长距离的影响。

通常来说,梯度爆炸更容易处理一些。因为梯度爆炸的时候,我们的程序会收到NaN错误。我们也可以设置一个梯度阈值,当梯度超过这个阈值的时候可以直接截取。

梯度消失更难检测,而且也更难处理一些。总的来说,我们有三种方法应对梯度消失问题:

1、合理的初始化权重值。初始化权重,使每个神经元尽可能不要取极大或极小值,以躲开梯度消失的区域。

2、使用relu代替sigmoid和tanh作为激活函数。

3、使用其他结构的RNNs,比如长短时记忆网络(LTSM)和Gated Recurrent Unit(GRU),这是最流行的做法。

LSTM

输入门、遗忘门、输出门
在这里插入图片描述

GRU

reset门:决定在多大程度上“忽略”过去的隐藏状态
update门:更新隐藏状态,它扮演了 LSTM 的 forget 门和input 门两个角色

四、参考

https://www.cnblogs.com/LXP-Never/p/10391308.html

DNNCNNRNN都是神经网络的变种形式。 DNN,即深度神经网络,是一种具有多个隐藏层的神经网络结构。它可以用来处理复杂的非线性关系,并且在很多领域都取得了很好的效果。DNN在计算机视觉、自然语言处理等领域有广泛的应用。 CNN,即卷积神经网络,是一种专门用于图像处理的神经网络结构。它可以通过卷积操作来提取图像的特征,并通过池化操作来减少特征维度。CNN在图像分类、目标检测和图像生成等任务上表现出色。 RNN,即循环神经网络,是一种用于处理序列数据的神经网络结构。与传统的神经网络不同,RNN具有循环连接,可以对时间序列上的变化进行建模。RNN在自然语言处理、语音识别和机器翻译等领域被广泛应用。 总结来说,DNN适用于处理复杂的非线性关系,CNN适用于图像处理,而RNN适用于处理序列数据。它们在深度学习中发挥了重要的作用,各自在不同领域具有独特的优势。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [CNNDNNRNN学习总结.pdf](https://download.csdn.net/download/weixin_44222014/12255152)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [深度学习之CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)概念区分理解](https://blog.csdn.net/IT_flying625/article/details/103307897)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值