神经网络结构的发展与变迁---LeNet\AlexNet\VGGNet\GoodleNet\ResNet\U-Net\DenseNet\FCN\Deeplab系列---下篇

神经网络结构的发展与变迁---LeNet\AlexNet\VGGNet\GoodleNet\ResNet\U-Net\DenseU-Net\FCN\Deeplab系列---下篇

5.因为网络越深,能获取的信息越多,特征也越丰富。但是根据实验表明,随着网络的加深,优化效果反而越差,测试数据和训练数据的准确率反而降低了。这是由于网络的加深会造成梯度爆炸和梯度消失的问题。ResNet是一种残差网络,经过堆叠可以构成一个很深的网络。H(x) = F(x)+x是ResNet网络的核心,ResNet的网络结构图如下所示:

6.FCN于2015年提出,与经典的CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类(全联接层+softmax输出)不同,FCN可以接受任意尺寸的输入图像,采用反卷积层对最后一个卷积层的feature map进行上采样, 使它恢复到输入图像相同的尺寸,从而可以对每个像素都产生了一个预测, 同时保留了原始输入图像中的空间信息, 最后在上采样的特征图上进行逐像素分类。最后逐个像素计算softmax分类的损失, 相当于每一个像素对应一个训练样本。

FCN的优点:一是可以接受任意大小的输入图像,而不用要求所有的训练图像和测试图像具有同样的尺寸。二是更加高效,因为避免了由于使用像素块而带来的重复存储和计算卷积的问题。

FCN的缺点:一是得到的结果还是不够精细。上采样的结果还是比较模糊和平滑,对图像中的细节不敏感。二是对各个像素进行分类,没有充分考虑像素与像素之间的关系,忽略了在通常的基于像素分类的分割方法中使用的空间规整(spatial regularization)步骤,缺乏空间一致性。FCN结构示意图如下:

 

7.U-Net 网络结构如下图所示,主要由卷积层、最大池化层(下采样)、反卷积层(上采样)以及ReLU非线性激活函数组成。首先进行Conv+Pooling下采样;然后Deconv反卷积进行上采样,crop之前的低层feature map,进行融合;然后再次上采样。重复这个过程,直到获得输出388x388x2的feature map,最后经过softmax获得output segment map。与FCN思路非常类似。

8.DenseNet将所有输入连接到输出层与残差网络不同的是不用相加而是连接,非线性映射关系:X(t)=H([X0,X1,X2,...,X(t-1)])输入直接传入到输出如下图

 

9.Deeplab1将VGG去掉最后两个maxpooling,将后面两层卷积改为空洞卷积,同时将全连接层替换成1*1卷积,输出1/8的原图大小的分割图。使用了CRF。Deeplab2加入了空洞卷积与Inception。Deeplab3使用了multi-Grid策略,在基础网络后端多加几层不同空洞率的空洞卷积。以消除空洞卷积的网格效应。并将BN加入ASPP模块以加快训练速度且有一定的正则作用。在ASPP中加入全局平均池化,加入线性上采样将分割图恢复为原图尺寸。Deeplab3+加入了具有残差连接的深度可分离卷积层的线性堆叠Xception架构。

 

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值