神经网络基础结构演进趋势洞察

自从2012年AlexNet激起新一轮深度学习热潮以来,深度神经网络快速发展,众多教授、博士迅速挖坑、填坑,把神经网络的基础结构研究的透透彻彻。最近整体看了几十篇神经网络基础结构的文章,作为备忘,简单整理记录如下:

名称推出时间核心创新点
AlexNet2012深度学习开山之作,ReLU、DropOut、池化
VGG2014.9小尺寸卷积核,全3*3卷积核
GoogLeNet (Inception V1)2014.9分组卷积、模块化、1*1卷积、全局平均池化替代全连接
Inception V2/V32015.2/12BN、卷积分解(n*n卷积分解为1*n+N*1)
ResNet2015.12残差
SqueezeNet2016.2轻量化网络,1*1卷积、分组卷积
DenseNet2016.8各层全连通
Xception2016.10Depthwise卷积
MobileNet V12017.4轻量化网络,depthwise和pointwise(即1*1)卷积
ShuffleNet2017.7轻量化网络,多种技术的综合优化,多通道卷积时的通道shuffle
MobileNet V22018.1轻量化网络,逆向残差模块(ResNet里通过1*1降维,这里是升维)、线性bottleneck

几点说明:

1. 挂一漏万,这些是个人认为比较重要的基础网络结构;

2. 有些结构可能不是该网络首创,但通常认为是该网络发扬光大;

3. Inception V2/V3在V3那篇文章(Rethinking the Inception Architecture for Computer Vision)里有明确的定义,但是到V4那篇文章里又有了新的说法,两篇文章文章里关于V2的说法好像是不一样的,此处采纳V3文章里的说法。

 

从以上表格可以看出这么几个趋势:

1. 重要的基础网络基本都在2016年以前发布的,而2016年以后重点已经转到轻量化网络上了;

2. 对于保持网络精度的同时降低网络规模起到重要作用的技术包括:小尺寸卷积(现在的网络基本统一到3*3卷积上了,通过多层级联可以获得大尺寸卷积的作用)、分组卷积(也就是group conv)、卷积分解(用1*n+n*1替代n*n卷积)、depthwise卷积、1*1卷积(或者叫bottleneck或pointwise卷积)、全局平均池化替代全连接;

3. 对于网络加深和训练快速收敛起作用的技术包括:BN和残差。这两个技术目前都得到了广泛的应用;

4. 模块化对于缩小设计空间,简化复杂模型设计非常重要。

 

关于这些网络的对比,有这么一篇文章做了总体介绍:An Analysis of Deep Neural Network Models for Practical Applications, https://arxiv.org/abs/1605.07678 。下图摘自这篇文章:

 

 

从这个图里可以看到:

1. 针对ImageNet分类数据集,top1准确率在75%~80%附近饱和,在现有网络结构下,不管怎么增加计算,也很难进一步快速提升;

2. 饱和点大概在Inception V3和ResNet50附近,之后需要计算量大幅提高才能获得一点准确率的提升;

3. VGG实在是效率很低的网络,参数量多、计算量大,而分类精度却是一般;

4. Inception是效率挺高的网络,但相对来说,需要比较精细的设计,因而可移植性差一些;而ResNet简单很多,只是在普通卷积网络的基础上加上残差连接,通用性非常强,因此这些年应用极广。

 

以上,个人简单想法,做个记录。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值