卷积神经网络实例探究

1.有哪些有名的CNN实例

——classic networks

·LeNet-5(1980s)

·AlexNet

·VGG

——ResNet(Residual Network,残差网络,152层)

——Inception(谷歌,盗梦空间)

2.大神LeCun的LeNet-5

上个世界八十年代,LeCun搭建了针对灰度图像进行训练的LeNet-5,后来在论文LeCun et al.,1998. Gradient-based learning applied to document recognition中详细阐述,其大致架构如下所示:


其中大约有6万个参数。在那个年代,no padding,人们常用的是sigmoid和tanh函数,而如今ReLU是常用的非线性函数。

3.AlexNet

具体的架构和LeNet大致相似,但是更加庞大,大约有6千万个参数,如下图所示:


——使用了padding,即same filter。

——使用了ReLU激活函数

——两个GPUs之间相互协作

——使用LRN(局部响应归一层),即在激活值构成的立方体沿着通道的数值进行归一化操作。

4.VGG-16

这是一个没有那么多超级参数(不需要关注f,s,p等),只关注有规律地构建卷积层的深度CNN。大约有138M个参数,比AlexNet更大。

VGG网络的一大优点:结构很规整,共16个卷积层,卷积层过滤器的数量很有规律,从64翻倍至128至256至512。并且图片通过池化层缩小也有规律,每次缩小一半。使用了CONV为3*3的same的filter,s=1;使用了2*2的Maxpool,s=2。具体见下图:


5.残差网络(ResNets)

利用跳远连接搭建更深的网络结构(152层)。由何恺明、孙剑等人提出。

其基础结构为残差块(Residual block)。具体见下图:


main path下的深层网络理论上随着层数的增加,训练误差越来越小;但是实际情况是由于很难优化,导致误差增大。而使用ResNets则可以消除这一情况。

ResNets还有助于解决梯度消失和梯度爆炸的问题。

6.为什么残差网络有效?



  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值