GoogleNet论文学习

《Going Deeper with Convolutions》GoogLeNet

  • 作者:Christian Szegedy,Wei Liu,Yangqing Jia,et al.
  • 单位:Google Inc.
  • 发表会议及时间:CVPR2015

作者简介

在这里插入图片描述
上一篇文章介绍了VGG网络结构,VGG在2014年ImageNet 中获得了定位任务第1名和分类任务第2名的好成绩,而同年分类任务的第一名则是GoogleNet 。

论文简介

  • 提出:Inception 卷积神经网络架构
  • 结果:ILSVRC2014分类和检测任务巅峰
  • 亮点:
    • 加深和加宽了网络结构,
    • 更好的利用了网络结构内的计算资源
  • 基于赫布原则和对多尺度的观测
  • 建立GoogLeNet——22层深度网络

论文意义

通过设计一种新型的卷积神经网络结构,提升网络结构内的计算资源利用率,同时增加了网络宽度和深度,提升了网络效果。

  • GoogLeNet之前
    卷积神经网络较浅,利用比较单一的卷积核,计算效率不高。
  • Inception模块
    通过并行设计,提升计算效率,提升效果,同时加深和加宽网络层。
  • 结果
    在lmageNet 数据集测试上达到了state-of-the-art效果。

论文结构

  1. 引言
    Introduction
  2. 相关工作
    Related Work
  3. 灵感与高层次考虑
    Motivation&High-Level
    Consideration
  4. 网络架构细节
    Architecture Details
  5. GoogLeNet
    GoogLeNet
  6. 训练方法
    Training Methodology
  7. ILSVRC2014比赛
    ILSVRC 2014 Challenge
  8. 总结
    Conclusions

灵感与思考(Motivation and High Level Considerations)

  • 如何提升深度神经网络表现?
    • 加深网络
    • 加宽网络
  • 什么副作用?
    • 数据量不足时容易过拟合
    • 加大对计算资源的需求
  • 怎么进一步改进网络?
    • 引入稀疏性;【Arora et al】
    • 稀疏卷积结构,同时借助硬件密集矩阵运算;

Inception/GoogLeNet网络结构

  • Inception:
    • 通过堆叠多种卷积核实现最优稀疏结构;
    • 1x1,3×3,5x5结合,concate连接;
    • 最朴素的结构如下图;
    • 维度太高!
      在这里插入图片描述

改进:

  • 通过增加1x1卷积降低维度;
  • 低维embedding信息量充足;
  • 实践中从较高维度开始叠加Inception;
  • 降低计算量;
    在这里插入图片描述
  • GoogleNet:
    • 基于第二种低计算量的Inception 模块,堆叠构建 GoogLeNet;
    • 输入维度:224×224×3(RGB图像);
    • 深度:22层(包含参数的层);
    • 中间输出计算损失,为了解决梯度消失或梯度爆炸问题;

GoogleNet网络结构(Inception V1)的网络结构如下:
在这里插入图片描述

实验和结果

数据集:lmageNet 2012分类数据集,1000类别

  • 训练数据:约120万图像
  • 验证数据:50000图像
  • 测试数据:100000图像
  • 输出:Top-1,Top-5错误率

在这里插入图片描述
检测任务比赛结果
在这里插入图片描述
pytorch代码实现可参考这篇博客:深入解读GoogLeNet网络结构(附代码实现)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

天涯小才

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值