经典CNN网络:DenseNet

本文详细介绍了DenseNet的结构和工作原理,将其与ResNet进行对比,并通过DenseBlock的层层连接展示特征如何在不同层之间传递。DenseNet-121的每个DenseBlock通过不同次数的卷积和通道数变化实现特征提取和下采样,最终输出高维特征。这种密集连接的设计有助于减轻梯度消失问题,同时利用上下文信息增强模型的学习能力。
摘要由CSDN通过智能技术生成

前言

         DenseNet和ResNet的思路类似,目的都是减轻梯度消失等深度学习中常见的一些问题。论文中写出DenseNet采用的是密集连接的方式,初次看还不太能理解,但是又感觉有点熟悉(突然想到了RNN中的LSTM结构),我认为密集连接通俗一点讲,就是联系上下文(英语考试中遇到不认识的单词,可以联系上下文进行猜测,应该是类似的)。

DenseNet结构简图

每一层的输入与前面层都有关系,应该说是联系上文吧。

DenseNet完整结构图

这里以DenseNet-121为例:

  1. Dense Block主要是1*1和3*3的卷积层组成,每一块分别重复6/12/24/16次,提取特征图
  2. 每一块后接上pooling层积进行下采样
  3. 具体的输入和输出看下面的图(图片来自https://blog.csdn.net/weixin_31852627/article/details/112111904)和表格,重点关注通道数的变化(通道数的变化不容易理解)

图片和表格的解释:

  1. 输入图片经过一次卷积和池化后变成56*56的尺寸,而最后的输出通道为32+32=64
  2. 经过Dense_Block_1的6次卷积,通道数变成64+32*6=256,经过1*1卷积调整通道数,2*2池化 进行下采样,最后输出为28*28*128
  3. 经过Dense_Block_2的12次卷积,通道数变成128+32*12=512,经过1*1卷积调整通道数,2*2池化 进行下采样,最后输出为28*28*256
  4. 经过Dense_Block_3的24次卷积,通道数变成256+32*25=1024,经过1*1卷积调整通道数,2*2池化 进行下采样,最后输出为14*14*512
  5. 经过Dense_Block_4的16次卷积,通道数变成512+32*12=1024,经过7*7卷积调整通道数,最后输出为1*1*1024
  • 1
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

呆呆珝

您的打赏是我的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值