(CNN)卷积神经网络(五)常见卷积神经网络

本文详细介绍了卷积神经网络中的经典模型,包括LeNet、AlexNet、ZFNet、VGG、GoogLeNet和ResNet,探讨了它们的网络结构、特点以及在训练过程中的优势。此外,还提及了Fine-tune技术,如何利用预训练模型进行微调。
摘要由CSDN通过智能技术生成
  1. Letnet
  2. Alexnet
  3. ZFnet
  4. VGG
  5. Googlenet
  6. Resnet: Deep Residual Learning Network
  7. fine-tune

第一篇文章介绍了卷积神经网络的数据输入形式和权值的初始化:CNN)卷积神经网络(一) 第二篇文章介绍了卷积操作,常用的激活函数(CNN)卷积神经网络(二)
第三篇介绍了卷积神经网络的池化层,可视化理解以及用数学的角度理解卷积操作:[(CNN)卷积神经网络(三)]
第四篇介绍了dropout的三种不同理解方式:(CNN)卷积神经网络(四)dropout

这一篇看一下常见的卷积神经网络

1.Letnet

这是一开始最简单的卷积神经网络,用来做手写数字识别的。
这里写图片描述

这是它的网络结构:
这里写图片描述
其实就是最经典的:

[CONVPOOLCONVPOOLCONVFC]

2.Alexnet

这里写图片描述
第一层卷积层用55个神经元,每次采样采用11X11的滑动窗口,然后得到55个feature map。
它的top5的准确度超出第二10%。
这里写图片描述

3.ZFnet

这里写图片描述
ZFnet只是对前面的网络做了一些调整,改动不是很大。
在第一层卷积层,只是把11X11的滑动窗口改为7X7,步长设为2。

4.VGG

这个是VGG-16的
这里写图片描述
能训练出一个16层的神经网络,真的很不容易,因为那时候梯度消失还没有得到比较好的解决。

参数比较:
这里写图片描述

消耗内存计算:
这里写图片描述
总内存:24M*4bytes -=93MB/image
总参数:138M parameters

不要觉得自己有GPU就屌爆了,一次丢太多图片,你的服务器照样受不了。

5.Googlenet

这里写图片描述
它把全连接层换成了小卷积,而且它只有5百万个参数。

6.Resnet: Deep Residual Learning Network

这里写图片描述
resnet的网络深度比VGG还要深8倍,但是它比VGG好训练。
由上图的中间图,你会发现这是平铺的网络,其实就是

F(W1,F(W2,F(W3,F(W4,x))))
这样层层嵌套的结构,这样在求梯度的时候非常容易导致梯度消失,所以就由人想出了下图这样的结构:
这里写图片描述

它相当于x这样的输入数据,和经过卷积之后的输出数据 F(x) 共同作为下一层的输入,让模型学习他们之间的残差,其实就是x和 F(x) 之间的差异,然后把这样的差异值叠加。

与之前的差异:求偏导时由:

F(W1,F(W2,F(W3,F(W4,x))))
变成了 F(x)+x 。求偏导函数对于 和函数比嵌套函数更好求嘛。

7.fine-tune

站在巨人的肩膀上来做自己的事情吧,这里有所有CNN的参数文件下载改改就可以用了。
Model-Zoo

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值