**权值共享方法**
- 在同一特征图和不同通道特征图都使用共享权值,这样的卷积参数是最少的,例如上一层为30*30*40,当使用3*3*120的卷积核进行卷积时,卷积参数为:3*3*120个.(卷积跟mlp有区别也有联系一个神经元是平面排列,一个是线性排列)
- 第二种只在同一特征图上使用共享权值,根据上面的例子,则卷积参数为:3*3*40*120.
**权值共享方法**
CNN中权值共享理解
借用前人的介绍:
(1) 针对一个神经元,例如一幅640*360图像,一个神经元要对应640*360个像素点,即一个神经元对应全局图像,全连接的话一个神经元就有640*360个参数;
(2) 图像的空间联系是局部的,就像人是通过一个局部的感受野去感受外界图像一样,每一个神经元都不需要对全局图像做感受,每个神经元只感受局部的图像区域,然后在更高层,将这些不同局部的神经元综合起来就可以得到全局信息。假如每个局部感受野1010,每个局部感受野只需要和1010的局部图像连接,这样一个神经元就只需要10*10个参数;
(3) 全局图像是640360,但局部图像只有1010大小,1010个参数只针对局部图像,如果全局图像中各个局部图像之间权值共享的话,即1010个参数在不同局部图像上参数应用相同的话,则在全局图像上通过全局共享则只需要10*10个参数;
(4) 1010个参数只针对一个神经元,要是有100万个神经元,则需要100万1010个参数,神经元多后,参数还是太大,如果每个神经元的这1010个参数相同呢,这样就还是只需要1010参数,因而经过局部感受野到权值共享再到每个神经元的1010个参数相同,不管图像多大,不管每层神经元个数多少,而两层间连接还是只需要求解10*10个参数;
(5) 由于只有一个滤波器,