DenseNet:《Densely Connected Convolutional Networks》论文笔记

DenseNet是一种密集连接的卷积神经网络,旨在解决深度网络中的梯度消失和信息丢失问题。通过每层与所有前层的连接,DenseNet提高了特征传播和重用,减少了参数数量,且在CIFAR、SVHN和ImageNet等数据集上表现出色。相比于ResNet,DenseNet在参数效率和性能上更具优势。
摘要由CSDN通过智能技术生成

DenseNet:《Densely Connected Convolutional Networks》

     这篇文章出自CVPR2017的最佳论文。本文主要介绍了一种新的卷积神经网络,名为密集卷积神经网络。下文是本人读完该论文做的一些笔记心得。通过分享希望能帮到有需要的朋友,如有问题,请朋友们指正,不胜感激[抱拳]。

介绍

    最近的研究表明,随着网络结构的加深,梯度与信息消失现象也就越明显。为了解决这一问题,人们已设计出了ResNet,Highway Networks,FractalNets,GoogleNet等结构。这些网络结构有一个共同的特点:在每一层与之后的层之间建立捷径来缓解梯度消失这种现象。但是这样也会带来一些问题:大量的网络参数,网络结构的利用率不高(一些层被有选择地dropout了)。    

    为了解决这些问题,作者提出了一种具有密集连接的卷积神经网络:DenseNet。它以前馈的方式使每一层都从前面的所有层获得额外的输入,并将自己的特征映射传递给后面的所有层。这样网络的每一层的信息得到充分的利用,缓解了梯度消失的同时,极大地减少了参数。     

    DenseNet有几个引人注目的优点缓解了消失梯度问题,增强了特征传播,鼓励了特征重用,并大大减少了参数的数量。DenseNet在大多数方面都比最先进的技术有了显著的改进,同时只需更少的计算便能实现更高的性能。

DenseNet网络结构

    传统的卷积前馈网络是将第 ℓ 层的输出作为输入连接到第 (ℓ + 1) 层,产生了以下的层转换:    xℓ= Hℓ(xℓ−1) 。

    ResNet网络中添加了一个跳过连接,它通过一个标识函数绕过非线性转换: 也就是说第 ℓ 层会从它之前的所有层中接受feature-maps,公式表示如下:  

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值