Network in Network

这篇文章感觉相当重要,在GoogLeNet里被多次提及。而且它是基于最基本的CNN进行优化,有一定的普适性。

两个重要特点

  • mlpconv layer
    优点:能够提升 abstraction level,就是说辨识不同数据之间相同实质的能力,说白了就是非线性部分增多了,当然更符合实际。
    这里写图片描述
  • global average pooling
    把FC改成了:将feature map求均值,然后放入softmax最后输出。按照文章的说法这样比FC更interpretable。同时,还能避免overfitting

details

下图是整体结构
这里写图片描述
1. universal function approximator
radial basis network和multilayer perceptron是两个常用的universal function approximator,选择后者有两个原因,一是它和CNN相契合,可以用反向传播算法来训练;二是它本身也是个深度模型,包含了特征重用的思想。
2. MLP convolution layer
这里写图片描述
文章还提到在跨通道情况(cross feature map)下,mlpconv等价于卷积层+1*1卷积层,此时的mlpconv也叫(cascaded cross channel parametric pooling)
3. global average pooling

we take the average of each feature map, and the resulting vector is fed
directly into the softmax layer

读后感

文章不长,但影响深远。比如里面提到的1*1卷积层,在后来著名的GoogLeNet和ResNet都采用了,不仅可以跨通道组织信息,而且可以进行升降维。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值