1*1卷积核用法与权值共享

本文介绍了卷积神经网络中1*1卷积核的权值共享方法,以及其在减少参数数量、实现跨通道交互和信息整合等方面的作用。通过GoogLeNet的Inception模块,展示了1*1卷积如何用于构建更高效的网络结构,减少计算量。
摘要由CSDN通过智能技术生成
#

**权值共享方法**

  • 在同一特征图和不同通道特征图都使用共享权值,这样的卷积参数是最少的,例如上一层为30*30*40,当使用3*3*120的卷积核进行卷积时,卷积参数为:3*3*120个.(卷积跟mlp有区别也有联系一个神经元是平面排列,一个是线性排列)
  • 第二种只在同一特征图上使用共享权值,根据上面的例子,则卷积参数为:3*3*40*120.

 

权值共享

CNN中权值共享理解

借用前人的介绍:

(1) 针对一个神经元,例如一幅640*360图像,一个神经元要对应640*360个像素点,即一个神经元对应全局图像,全连接的话一个神经元就有640*360个参数;

(2) 图像的空间联系是局部的,就像人是通过一个局部的感受野去感受外界图像一样,每一个神经元都不需要对全局图像做感受,每个神经元只感受局部的图像区域,然后在更高层,将这些不同局部的神经元综合起来就可以得到全局信息。假如每个局部感受野1010,每个局部感受野只需要和1010的局部图像连接,这样一个神经元就只需要10*10个参数;

(3) 全局图像是640360,但局部图像只有1010大小,1010个参数只针对局部图像,如果全局图像中各个局部图像之间权值共享的话,即1010个参数在不同局部图像上参数应用相同的话,则在全局图像上通过全局共享则只需要10*10个参数;

(4) 1010个参数只针对一个神经元,要是有100万个神经元,则需要100万1010个参数,神经元多后,参数还是太大,如果每个神经元的这1010个参数相同呢,这样就还是只需要1010参数,因而经过局部感受野到权值共享再到每个神经元的1010个参数相同,不管图像多大,不管每层神经元个数多少,而两层间连接还是只需要求解10*10个参数;

(5) 由于只有一个滤波器,

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值