常用神经网络

1. CNN(卷积神经网络)

    CNN:Convolutional Neural Networks

    CNN特别擅长于图像分类,可以帮我们训练深度、多层的网络。目前,基于CNN的各种变化形式广泛应用于图像识别中。

    CNN能很好地适应图像的平移不变性:例如稍稍移动一幅猫的图像,它仍然是一幅猫的图像。

1.1 CNN的基本概念

    CNN的基本概念如下: 

       1)局部感受野(Local Receptive Fields)
       2)共享权重和偏差(Shared Weights and Biases)

           特征映射共享权重和偏差、或卷积核、或滤波器

           一个特征映射:可以检测一类局部特征。

           共享权重:意味着卷积滤波器被强制从整个图像中学习,这使他们不太可能去选择在训练数据中的局部特质。于是对过拟合(overfitting)有很强的抵抗性,所以就没有必要来应用其它规范化,例如弃权(dropout)。
       3)混合(Pooling)

1.2 CNN的组成

      CNN一般由以下两层组成:

        1)卷积层(Convolutional Layer):根据特征映射生成的神经元。

        2)混合层(Pooling Layer):一般紧跟在卷积层之后,简化从卷积层输出的信息。

              - 最大混合值(Max-Pooling)

              - L2混合值(L2-Pooling)

1.3 CNN的通用模式

       


2. RNN(递归神经网络) 

    RNN(Recurrent Neural Networks):就是一种随着时间而变化(时变特性)的神经网络。

    即在前馈网络中, 隐层或输出神经元的激活值不完全由当前时刻的输入层决定,可能与之前的输入层相关或之前的其它隐层的激活值相关。

    RNN特别擅长:语音识别(Speech Recognition)领域。

    

2.1 LSTM(长短期记忆单元)

    影响RNN 的一个挑战是前期的模型会很难训练,甚至比前馈神经网络更难。原因就是梯度不稳定的问题,因为在RNN中,梯度不仅仅通过层间反向传播,还会根据时间进行反向传播。如果网络运行了很长一段时间,梯度就会变得特别不稳定,学不到东西。

   LSTM(Long Short-Term Memory Units):就是为了解决这个梯度不稳定的问题而产生的。LSTM让RNN训练变得相当简单。



  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值