总结近期CNN模型的发展(一)

本文介绍了深度学习中卷积神经网络(CNN)的发展,从ResNet、Wide ResNet、ResNeXt到DenseNet的结构与优化。通过复现这些模型在CIFAR数据集上的实验,展示了各模型的性能和优势,如ResNet的残差学习、Wide ResNet的宽度影响、ResNeXt的基数概念以及DenseNet的优化梯度流。结果表明,这些结构对CNN模型的性能有显著影响。
摘要由CSDN通过智能技术生成

1.前言

好久没有更新专栏了,最近因为项目的原因接触到了PyTorch,感觉打开了深度学习新世界的大门.闲暇之余就用PyTorch训练了最近在图像分类上state-of-the-art的CNN模型,正好在文章中总结如下:

  1. ResNet [1, 2]
  2. Wide ResNet [3]
  3. ResNeXt [4]
  4. DenseNet [5]
  5. DPNet [9]
  6. NASNet [10]
  7. SENet [11]
  8. Capsules [12]

本文复现了上述论文在CIFAR数据集(包括cifaro10和cifar100)上的结果([9]除外),代码已经放在github上了:

junyuseu/pytorch-cifar-modelsgithub.com

这篇主要介绍前四个结构.


2.分析与复现结果

2.1 ResNet

ResNet是近年来CNN结构发展中最为关键的一个结构,后面非常多的insight都是在resnet基础上进行改进,也有非常多的论文旨在分析残差结构的有效性.ResNet的成功首先得益于其结构的简单有效,其次得益于它的广泛适用.一个简单的残差块如下图所示:


残差结构块

这个单元用可以由以下公式来表述:

y_l = h(x_l) + \mathcal{F}( x_l, \mathcal{W}_l),

x_{l+1} = f(y_l),

在resnet的大多数结构块中, h(x_l)=x_l 亦即恒等映射,只有非常少的几个需要进行维度匹配而使用了1x1的卷积层来增加维度,而f则是ReLU函数.

假设从上一层传来的loss为 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值