论文阅读: ResNeXt

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/JNingWei/article/details/80059533

Introduction

ResNeXt是ResNet的加强版,将ResNet原本简单的“plain版residual module”替换成了“Inception版residual module”:
这里写图片描述

每个“Inception版residual module”内部各通道最后进行 按位加
这里写图片描述

标准计算公式如下:
这里写图片描述

作者还给出了不同型号的“Inception版residual module”:
这里写图片描述

以下是ResNeXt网络结构说明书:
这里写图片描述

Result

在ImageNet-1K上:

  • ResNeXt可以比ResNet收敛更快:
    这里写图片描述

  • 在FLOP为ResNet两倍的情况下,ResNeXt分类效果略微强过ResNet:
    这里写图片描述

在ImageNet-5K上:

  • ResNeXt分类错误率更低一点:
    这里写图片描述

    这里写图片描述

在CIFAR-10上:

  • ResNeXt分类top-1错误率更低一点:
    这里写图片描述

在COCO上:

  • ResNeXt分类AP值更高一点:
    这里写图片描述

Innovation

移花接木:
“plain版残差结构” + “Inception设计” -> “Inception版残差结构”

Thinking

  • ResNet因为结构简单,效果好,成为了日常使用时各network的首选basemodel。

  • ResNet与其加强版的ResNeXt、DPN互为补充。前者因为结构简单、效果好,成为了日常做研究时的首选basemodel。后两者结构复杂,在大数据集和更深的网络上效果略优于ResNet,因此成为论文刷AP、比赛打榜的首选basemodel。


[1] Aggregated Residual Transformations for Deep Neural Networks
[2] Deep Residual Learning for Image Recognition 笔记

展开阅读全文

没有更多推荐了,返回首页