「模型解读」network in network中的1*1卷积,你懂了吗

https://www.toutiao.com/a6706831632155804172/

 

作者 | 李健(微信号:lijian05170517)

编辑 | 言有三

Network In Network 是发表于2014年ICLR的一篇paper。这篇文章采用较少参数就取得了Alexnet的效果,Alexnet参数大小为230M,而Network In Network仅为29M,这篇paper主要两大亮点:

1 提出MLP卷积层

下图是传统卷积结构:

「模型解读」network in network中的1*1卷积,你懂了吗

 

使用relu的一个非线性变换操作为:

「模型解读」network in network中的1*1卷积,你懂了吗

 

i,j表示像素下标,xi,j表示像素值,wk表示卷积参数,k就是下标的索引。

MLP卷积层结构如下图:

「模型解读」network in network中的1*1卷积,你懂了吗

 

mlpconv层的计算公式为:

「模型解读」network in network中的1*1卷积,你懂了吗

 

i,j表示像素下标,xi,j表示像素值,wk,n表示第n层卷积卷积参数。

从以上可以看出,MLP卷积层通过叠加"micro network"网络,提高非线性表达,而其中的"micro network"基本组成单元是1*1卷积网路,说到这,就要解释一下1*1卷积了,该篇论文是首次提出1*1卷积,具有划时代的意义,之后的Googlenet借鉴了1*1卷积,还专门致谢过这篇论文。

1*1卷积的意义:

1. 实现了不同通道同一位置的信息融合

「模型解读」network in network中的1*1卷积,你懂了吗

 

如上图,C2融合了C1不同通道同一位置的信息。

2. 可以实现通道数的降维或升维

1*1*n,如果n小于之前通道数,则实现了降维,如果n大于之前通道数,则实现了升维。

2 用全局均值池化代替全连接层

首先让我们看下Network In Network的网络结构,如下图。

「模型解读」network in network中的1*1卷积,你懂了吗

 

上图看出,该网络结构有三个MLP卷积层组成,每个MLP卷积层分别是一个普通卷积,加两个1*1卷积。以1000分类为例,最后一个1*1卷积输出的featuremap大小为6*6*1000。之后每个featuremap采用全局均值池化,输出1000个分类。由于没有全连接的大量参数,使用全局均值池化不需要参数,极大的降低了参数量。

如下图是在CIFAR-10 数据集中 Global average pooling 和 fully connected测试对比图, 从下图可以看出无参数的Global average pooling层 相比较于有参数的全连接层错误率更低。

「模型解读」network in network中的1*1卷积,你懂了吗

 

3 总结

Network In Network通过创新的创建MLP卷积层,提高了网络的非线性表达同时降低了参数量,用全局均值池化代替全连接层,极大的降低了参数量。

参考文献

Lin M, Chen Q, Yan S. Network In Network[J]. Computer Science, 2014

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值