基本网络结构

LeNet-5

1998的的LeNet提出的cnn网络结构,包含卷积层,池化层,全连接层,塑造了今天的基本网络结构。因为使用了 5 X 5 的卷积核,又被叫做LeNet-5
在这里插入图片描述
LeNet-5由 2 X (卷积层+池化层) + 全连接层组成
卷积层权重共享,使用更少参数,节省了计算量与内存空间

卷积操作是为了提取图像特征,池化层的目的是降采样,保留图像特征的同时减少图像尺寸,经过多次卷积池化后,用全连接层将特征聚合。

AlexNet

12年AlexNet重新点燃了学界对神经网络的热情,而在这之前神经网络因为种种原因而被忽视,Alex能成功的原因主要有3
1.ImageNet 第一个千万级的图像训练集,在这之前,一般的训练集只有几千张,几万张图片
2.CUDA计算。神经网络需要大量的计算,通用型的cuda单元使得gpu计算成为可能,实际上AlexNet使用了两块rx580进行分组卷积
3.强大的编程能力与聪明的算法。没有Alex的编程能力支持,使用cuda进行卷积计算不是一件容易的事。AlexNet开创性的采用了Relu,dropout这些现在仍在使用的技巧,用更深层的网络,一举在ILSVRC夺冠
在这里插入图片描述

VGG-更深

VGG采用了更深的网络结构,最大的改进是采用了 3 X 3 或 1 X 1的卷积核,关于小卷积核的优势,可以看CNN卷积

GoogleNet-更宽

GoogleNet在ILSVRC14上获得了冠军,Google团队在随后2年里不断改进,相继提出了v1-v4和xcpetion结构。
GoogleNet的创新之处在于创造了Inception,使用了更宽的网络。
在这里插入图片描述
目的是为了网络代替人手工自己决定到底使用1×1,3×3,5×5以及是否需要max_pooling层,由网络自动去寻找适合的结构。并且节省计算提取更为丰富的特征。
缺点是参数量更多,计算更复杂

ResNet残差连接

残差连接是ResNet最重要的思想,现在仍然广泛使用,
因为神经网络过深导致模型退化,比如在18层网络得到最好效果,32层输出反而变差了,残差连接是将上一层的输出结果连接输入作为下一层输入,即
f ( x i − 1 ) + x i − 1 → x i f(x_{i-1})+x_{i-1} \rightarrow x_{i} f(xi1)+xi1xi
要想网络层输出不变,即 f ( x i − 1 ) → 0 f(x_{i-1}) \rightarrow 0 f(xi1)0
残差连接效果好原因是神经网络相对于输出具体的值,更容易输出0
同时,信息论来说,每层网络的信息量是不断增加的。

SENet

SENet建立了通道之间的联系,矫正了通道之间的强度关系
通过一个全局平均池化层加两个全连接层以及全连接层对应激活【ReLU和sigmoid】组成的结构输出和输入特征同样数目的权重值,也就是每个特征通道的权重系数,学习一个通道的注意力出来,用于决定哪些通道应该重点提取特征,哪些部分放弃
在这里插入图片描述
压缩模块:
对U进行全局池化得到1 X 1 X C的特征值z
s = σ ( W j δ ( W i z ) ) s=\sigma(W_{j}\delta(W_{i}z)) s=σ(Wjδ(Wiz))
这一步相当于为不同通道特征值加上自注意力机制
激活模块:
然后得到与原输入大小相同的输出
x ∼ = s c ∗ U c x^{\sim}=s_{c}*U_{c} x=scUc

SE学习了每个特征图的动态先验,可以看作特征图维度的自注意力
SENet的特性使得可以当模块使用,轻松与Inception或ResNet相结合

DenseNet

与ResNet将输入与输出相加作为下一层的输入不同,DenseNet将网络各层的输出连接,在层与层之间直接构建捷径。一个L层的网络有 n ( n + 1 ) 2 \frac{n(n+1)}{2} 2n(n+1)

在这里插入图片描述

当然,直接将所有输出特征相连对显存要求过高,因此,DenseNet采用了密集块的方法。
在这里插入图片描述
合成函数与成长率k:
合成函数的输入是拼接在一起的特征图,输出是 B N → R e l u → 3 X 3 BN \rightarrow Relu \rightarrow 3 X 3 BNRelu3X3结果
假定输入层的特征图的channel数为 K 0 K_{0} K0,Dense Block中各个层卷积之后均输出K个特征图,即得到的特征图的channel数为K,那么l层输入的channel数为 K 0 + ( l − 1 ) K K_{0}+(l−1)K K0+(l1)K, 我们将K称之为网络的增长率,原作者将这个值设为12

由于DenseNet对显存要求很高,在工业界不常用,更多使用ResNet

DPN

ResNet与DenseNet具有相似的思想但聚集在不同的方面,ResNet更注重特征的复用,DenseNet更注重特征的生成,能不能将两者结合起来呢,这就是DPN,双路网络

  • 9
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值