神经网络:GoogLeNet

《Going Deeper with Convolutions》论文解读


本文提出了GoogLeNet的网络结构,在ILSVRC2014取得了最好的成绩。本文和Network In Network一样,对网络中的传统卷积层进行了修改,提出了被称为Inception的结构。

Motivation

提高深度神经网络性能的关键在于增加深度和宽度。但是大的网络存在3个主要问题:发生过拟合,计算资源不足,稀疏的数据结构带来计算性能低下。

Inception

本文修改了传统的卷积层,提出了被称为Inception的结构。

Naive

Inception module的提出主要考虑多个不同size的卷积核能够hold图像当中不同cluster的信息,为方便计算,paper中分别使用1*1,3*3,5*5,同时加入3*3 max pooling模块。
文章指出这种naive的结构存在着问题:每一层Inception module的输出的filters将是分支所有filters数量的和,经过多层之后,最终model的数量将会变得巨大,naive的inception会对计算资源有更大的依赖。

根据Network-in-Network模型,1*1的卷积能够有效进行降维,所以文章提出了Inception module with dimension reduction,在不损失模型特征表示能力的前提下,尽量减少filters的数量,达到减少model复杂度的目的:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值