看论文系列(一)——Densely Connected Convolutional Networks(DenseNet)解读

论文:Densely Connected Convolutional Networks
论文链接:https

一、摘要

在这里插入图片描述
摘要提到本文模型的主要优点是:
1.它们缓解了梯度消失问题
2.加强了特征传播和特征复用
3.大大减少了参数数量
我们接下来在文中看本文的这些优点是如何得出的,先解释一下第一段标记的内容,其内容是说传统的CNN网络L层只有L个连接,而DenseNet,L层具有L(L+!)/2个连接,这是该模型的一个特点,我们接下来讨论一下这个连接数是如何得出的,从而也能加深对其优点的一个感性认识。
首先看论文中对DenseNet连接方式的一个示意图,如下:
在这里插入图片描述
我们接下来对该图进行一个分析,从而得出计算连接总数的公式,如下:
在这里插入图片描述

接下来讨论,其优点中的大大减少了参数数量,可以看下表,其比较对象为ResNet,从图中来看,相比于ResNet,DenseNet的参数量与运算量均呈数量级下降。
而对于缓解了梯度消失问题、加强了特征传播和特征复用这一优点,我认为其主要的原因可以归因于其大大减少了参数数量以及层数的加深和连接方式,参数量的减少可以缓解梯度消失的问题,而层数的加深以及DenseNet的连接方式卷能加强特征的传播。
在这里插入图片描述

二、模型结构

DenseNet的模型结构如下:
在这里插入图片描述
在这里插入图片描述
这里讲一下DenseNet-121 DenseNet-169…中数字代表的意思,数字表示网络中层的数量,例如121为:
1 + 6 ∗ 2 + 1 + 12 ∗ 2 + 1 + 24 ∗ 2 + 1 + 16 ∗ 2 + 1 = 121 1+6*2+1+12*2+1+24*2+1+16*2+1=121 1+62+1+122+1+242+1+162+1=121
需要注意到,DenseNet每次经过Dense块特征图的大小是不会改变的。

2.1.对ResNet的改进

本文对ResNet做了一个改进,ResNet使用恒等变换(Identify mapping)以及跳层实现,作者认为这种加性的方法会阻碍信息流的传播,因此作者对其做了改进,使L层的输入来自于L-1层之前的总和,形式如之前对连接方式的解读,同时定义H(.)函数是一个复合函数,其包含3个连续的操作:Conv(ReLU(BN(.)))。
在这里插入图片描述
ResNet
在这里插入图片描述
DenseNet
在这里插入图片描述
在这里插入图片描述

2.2.两个主要的块

Dense Block主要用来加深深度,而Transition Block主要用来减少特征图的数量,其主要原理是运用了1x1卷积核的降维作用,其原理可以见:1x1卷积核的理解
Dense Block的结构,一个Dense Block块包含N个Bottlenck Layer,层与层之间顺序连接,如L1->L2->L3…

在这里插入图片描述

Transition Block结构
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

酒与花生米

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值