深度学习-CNN模型汇总

目录

 

1、AlexNet网络模型

2、VGG网络模型

3、Inception模型(googleNet)

3.1[v1]

3.2[v2]

3.3[v3]

4 ResNet


1、AlexNet网络模型

2012年,Alex等人提出的AlexNet网络在ImageNet大赛上以远超第二名的成绩夺冠,卷积神经网络乃至深度学习重新引起了广泛的关注。主要特点有:

  • 更深的网络结构
  • 使用层叠的卷积层,即卷积层+卷积层+池化层来提取图像的特征
  • 使用Dropout抑制过拟合
  • 使用数据增强Data Augmentation抑制过拟合
  • 使用Relu替换之前的sigmoid的作为激活函数
  • 多GPU训练

网络模型如下:

参考链接:

(1)https://www.jianshu.com/p/00a53eb5f4b3

(2)https://www.cnblogs.com/wangguchangqing/p/10333370.html

(3)论文翻译:http://noahsnail.com/2017/07/04/2017-07-04-AlexNet%E8%AE%BA%E6%96%87%E7%BF%BB%E8%AF%91/

2、VGG网络模型

2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发出了新的深度卷积神经网络:VGGNet,并取得了ILSVRC2014比赛分类项目的第二名(第一名是GoogLeNet,也是同年提出的)和定位项目的第一名。但是VGG模型在多个迁移学习任务中的表现要优于googLeNet。而且,从图像中提取CNN特征,VGG模型是首选算法。它的缺点在于,参数量有140M之多,需要更大的存储空间。但是这个模型很有研究价值。

VGGNet的经典论文《Very Deep Convolutional Networks for Large-Scale Image Recognition》(基于甚深层卷积网络的大规模图像识别),在该论文中对VGG的思想、测试情况进行了详细介绍,建议阅读这篇论文加深了解。

(来自百度百科)主要特点如下:

(1)小卷积核。作者将卷积核全部替换为3x3(极少用了1x1);

(2)小池化核。相比AlexNet的3x3的池化核,VGG全部为2x2的池化核;

(3)层数更深特征图更宽。基于前两点外,由于卷积核专注于扩大通道数、池化专注于缩小宽和高,使得模型架构上更深更宽的同时,计算量的增加放缓;

(4)全连接转卷积。网络测试阶段将训练阶段的三个全连接替换为三个卷积,测试重用训练时的参数,使得测试得到的全卷积网络因为没有全连接的限制,因而可以接收任意宽或高为的输入。

参考链接

(1)https://my.oschina.net/u/876354/blog/1634322

(2)论文翻译:https://blog.csdn.net/quincuntial/article/details/77386778

3、Inception模型(googleNet)

3.1[v1]

V1论文:Going Deeper with Convolutions,ensemble top5 error 6.67%,2014

V1论文翻译:https://blog.csdn.net/c_chuxin/article/details/82856502

V1论文解析1:https://www.jianshu.com/p/a2ad00eddbd5(内部取消全连接层的观点保留)

V1论文解析2:https://www.jianshu.com/p/22e3af789f4e

 

3.2[v2]

V2论文: Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,ensemble top5 error 4.8%,2015

论文翻译:https://blog.csdn.net/Quincuntial/article/details/78124629

3.3[v3]

V3论文:  Rethinking the Inception Architecture for Computer Vision,ensemble top5 error 3.5%,2015

论文翻译:https://blog.csdn.net/Quincuntial/article/details/78564389

论文解析[V1-V4]https://blog.csdn.net/loveliuzz/article/details/79135583

[v4] Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning,ensemble top5 error 3.08%,2016

 

4 ResNet

 ResNet(Residual Neural Network)由微软研究院的Kaiming He等四名华人提出,对应的论文 《Deep Residual Learning for Image Recognition》是 2016 CVPR 最佳论文,通过使用ResNet Unit成功训练出了152层的神经网络,并在ILSVRC2015比赛中取得冠军,在top5上的错误率为3.57%,同时参数量比VGGNet低,效果非常突出。ResNet的结构可以极快的加速神经网络的训练,模型的准确率也有比较大的提升。同时ResNet的推广性非常好,甚至可以直接用到InceptionNet网络中。

ResNet 是何凯明团队的作品,对应的论文 《Deep Residual Learning for Image Recognition》是 2016 CVPR 最佳论文。ResNet 的 Res 也是 Residual 的缩写,它的用意在于基于残差学习,让神经网络能够越来越深,准确率越来越高

全网目前发现最好的一篇解析:https://blog.csdn.net/weixin_43624538/article/details/85049699

 

5Xception

Xception借鉴了depth wise separable conv改进InceptionV3,将空间和通道完全分离,从而提升了性能,降低了参数量。

论文: Deep Learning with Depthwise Separable Convolutios

翻译:https://blog.csdn.net/albertshi12/article/details/81303245

使用了深度可分离卷积:depthwise separable convolution

6、DenseNet

今天我们要介绍的是DenseNet模型,它的基本思路与ResNet一致,但是它建立的是前面所有层与后面层的密集连接(dense connection),它的名称也是由此而来。DenseNet的另一大特色是通过特征在channel上的连接来实现特征重用(feature reuse)。这些特点让DenseNet在参数和计算成本更少的情形下实现比ResNet更优的性能,DenseNet也因此斩获CVPR 2017的最佳论文奖。

论文翻译:https://zhuanlan.zhihu.com/p/31647627(Densely Connect Convolutional Networks),使用火狐浏览器

解析:https://blog.csdn.net/sigai_csdn/article/details/82115254

复现:https://github.com/titu1994/DenseNet

7、轻量化模型

7.1 SqueezeNet

(1)论文:SqueezeNet:AlexNet-level accuracy with 50x fewer parameters and <0.5MB

(2)翻译:https://blog.csdn.net/u013044310/article/details/80188530

(3)核心观点:

①提出了Fire Model模型

②使用率deep compression压缩模型(Deep compression是ICLR-2016 best paper)

一些参考论文:https://blog.csdn.net/u011995719/article/details/78908755

7.2 MobileNet

MobileNet 由Google团队提出,发表于CVPR-2017,

论文: 《MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications》

7.3ShuffleNet

论文:ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices

翻译:https://blog.csdn.net/u011974639/article/details/79200559

 

第七章总体参考

(1)https://www.cnblogs.com/vincent1997/p/10916734.html

(2)https://www.cnblogs.com/vincent1997/p/10916734.html

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值