复现 DenseNet (Keras)


前言

据说DenseNet 是优于ResNet的网络结构,有性能优越的特点并且实现思路很简单。但是特征层的重用会导致模型需要的显存比较大,计算速度会相对比较慢。但效果确实不错。

表面上好像是跨连接,实际上是concatenate 特征图。
注意:完整版代码参照官方书写,理解起来比较困难,建议大家参照简洁版,体会DenseNet 的思想和实现方式,用于修改自己的网络

一、什么是DenseNet?

先来看一张图

上图描述的就是DneseBlock的计算过程,它并不是像ResNet 一样 对卷积计算的结果进行Add,而是利用每次计算的特征图进行堆叠。对于一般的卷积神经网络。计算规则如公式所示:
对于DenseNet 而言:
也就是对特征层的重用。

了解到这些之后,相信聪明的小伙伴已经意识到这个一个问题。想如此堆叠特征层必然会引来特征层通道数过多的问题,同时特征层的大小要和输入时的一致,这样势必会倒是网络的参数过多。于是作者引入了transition_block,如下图红色方框中所示:
在这里插入图片描述

transition_block 包含一个1x1的卷积,用来调整通道数,和一个 2x2 的池化来缩小特征层的大小。这样每个Dense Block中进行计算时 特征保持不变,直到进入下一个Dense Block。 这就是Dense Block的实现思路了。

二、keras 复现(完整版)

1.Conv Block

该部分是用于Dense Block 中进行卷积运算的块。每个参数的含义 已经写在代码的注释中。
代码如下(示例):

def conv_block(x,stage,branch,nb_filter,dropout_rate = None):
        #  参数
        #     x: input tensor  #输入张量
        #     stage: index for dense block  #第几个dense_block 
        #     branch: layer index within each dense block  #dense_block 中各层的索引
        #     nb_filter: number of filters  #卷积核的个数
        #     dropout_rate: dropout rate  #dropout 参数
    eps = 1.1e-5
    bn_axis =3

    conv_name_base = 'conv' + str(stage) + '_' + str(branch)
    relu_name_base = 'relu' + str(stage) + '_' + str(branch)
    inter_channels = 4 * nb_filter
    # 1x1 的卷积用于调整输入tensor 的通道数
    x = BatchNormalization(epsilon=eps,axis=bn_axis,name=conv_name_base+'_x1_bn')(x)
    x = Activation('relu',name=relu_name_base+'_x1')(x)
    x = Conv2D(inter_channels,1,1,name=conv_name_base+'_x1',use_bias=False)(x)
    print("x in conv: ",x.shape)
    if dropout_rate:
        x = Dropout(dropout_rate)(x)
    
    # 3x3 的卷积
    x = BatchNormalization(epsilon=eps,axis=bn_axis,name=conv_name_base+'_x2_bn')(x)
    x = Activation('relu',name=relu_name_base+'_x2')(x)
    x = ZeroPadding2D((1, 1), name=conv_name_base+'_x2_zeropadding')(x)
    x = Conv2D(nb_filter, 3, 1, name=conv_name_base+'_x2', use_bias=False)(x)
    print("x in conv2: ",x.shape)
    if dropout_rate:
        x = Dropout(dropout_rate)(x)

    return x

2.Dense Block

通过定义好的conv_block 去声明 Dense Block。

def dense_block(x, stage, nb_layers, nb_filter, growth_rate, dropout_rate=None,grow_nb_filters=True):
    #  Build a dense_block where the output of each conv_block is fed to subsequent ones
    #     # Arguments
    #         x: input tensor  
    #         stage: index for dense block
    #         nb_layers: the number of layers of conv_block to append to the model. 添加卷积块的个数
    #         nb_filter: number of filters  卷积核的个数
    #         growth_rate: growth rate  增长率
    #         dropout_rate: dropout rate  dropout
    #         grow_nb_filters: flag to decide to allow number of filters to grow 是否允许卷积核的个数变多
    
        concat_feat = x

        for i  in range(nb_layers):
            branch = i + 1
            x = conv_block(concat_feat,stage,branch,growth_rate,dropout_rate)
            concat_feat = layers.Concatenate(axis=3,name='concat_'+str(stage)+'_'+str(branch))([concat_feat,x])
            if grow_nb_filters:
                nb_filter += growth_rate

        return concat_feat, nb_filter

growth rate 用于判断下一个 Dense Block 中卷积 的初始个数 ,作者的设置,为的是能够控制网络深层的卷积核个数。

3.Transition Block

用于缩小特征层。

def 
  • 6
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

__不想写代码__

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值