1x1卷积核的神奇魔力以及Inception网络概述

  • 神奇魔力1:举例子说明,假如网络的输入是28x28x192——>ReLU、CONV 1x1x192——>28x28x192。经过这样1x1的卷积,给神经网络提供了一个非线性函数(ReLU),从而减少或者保持输入层的通道数量。
  • 神奇魔力2:假如网络的输入是28x28x192——>ReLU、CONV 1x1x32——>28x28x32。这样有效的减少了输入的通道数,从192->32。
  • 神奇魔力3:在Inception网络中,使用了1x1卷积层来构建瓶颈层,从而大大降低了计算成本。举例说明。在未使用1x1卷积,28x28x192——>CONV 5x5、same、32——>28x28x32。这其中所需要乘法的计算量是:28x28x32x(5x5x192)=1.2亿左右。在使用了1x1卷积情况下,28x28x192——>CONV 1x1、16——>28x28x16——>CONV 5x5、same、32——>28x28x32。这其中所需要乘法的计算量是:28x28x16x(192)+28x28x32x(5x5x16)=1240万左右。相比于1.2亿计算量大大的下降了。
  • 下面简单的介绍以下Inception网络。Inception网络的基本思想不需要考虑网络用哪个filter或是否需要池化,而是网络自行确定这些参数,你可以给网络添加这些参数的可能值,然后不同的可能值产生的输出连接起来(注意不同filter产生的输出长和宽是相同的,不然拼接不到一起去,这里用到了使用带有padding的最大池化,我们都知道最大池化一般不使用padding的)。这样让网络自己学习他需要什么样的参数,采样哪种filter的组合。左图是输入,1x1、3x3这些是卷积核的大小,右图是不同卷积核产生的输出的拼接。
    在这里插入图片描述
    在这里插入图片描述
    Inception网络就是多个上述这种块组成。

在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值