【CNN】卷积神经网络中的 1*1 卷积 的作用

在论文 Network In Network 中,提出了一个重要的方法: 1×1 1 × 1 卷积。这个方法也在后面比较火的方法,如 googLeNet、ResNet、DenseNet ,中得到了非常广泛的应用。特别是在 googLeNetInception中,发挥的淋漓尽致。

初次看到 1×1 1 × 1 卷积,可能会觉得没有什么作用,因为给人的感觉就是 1×1 1 × 1 的卷积核好像并没有改变什么。但如果对卷积操作有过深入的理解,就会发现并没有那么简单。

这里强调一下,下图只是用了一个卷积核(filter)。下面的 32 是为了匹配上一层的channels,输出的结果只有一个channel。这里如果不理解,可以看我的另一篇博客,【CNN】理解卷积神经网络中的通道 channel

  • 16
    点赞
  • 62
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值