卷积神经网中权值共享是什么样的?

参考:http://blog.sina.com.cn/s/blog_6c9b83990102v9ir.html

如果说有:权值共享的概念,那么肯定得有不共享的例子,而且不共享是比较原始的。


输入层:对于一幅1000x1000大小的图像(假设为灰度图,不考虑3通道),我们把这个图像作为神经网络的输入层,那么输入层的神经元的个数就是每个像素点,个数为1000x1000个。

隐层:我们再规定和这个输入层连接的隐层的神经元个数为1000,000个。

输入层和隐层之间肯定是通过权值(重)W连接起来的,即X*W=Y(W为权值,X为输入,Y为隐层),如果不是权值共享,而是最基本的全连接,那么W的维数就是1000x1000x1000,000,这样的话,W有点太多了。于是想法减少W的维数。

方法:让隐层的1000,000个神经元里的每个神经元“只”和输入层的10x10个神经元进行连接,而不是和输入层的1000x1000个神经元进行连接。这就是感受野。

上面提到的方法还不是权值共享,因为还有提升,如下:

权值共享:在上述方法中我们得到的输入层和隐层之间连接的W的维度变成了:1000,000 x 10 x 10,假定这些W中的每个元素都是不同的,那么我们需要把所有的W元素都保存下来以备之后使用,但是如果这些W全都是10 x 10个权重的复制呢?也就是说隐层的每个神经元跟图像上不同区域的10 x 10个神经元的连接都是相同的,那么我们最后得到的W只有10x10大小了,只需要保存100个参数就可以了。当然,这样做也太粗糙了,肯定提取的特征太少,没关系啊,我们多加几个10 x 10大小的W不就可以了,比如100个,那 就可以提取100次特征了,而总的W的维度(输入与隐藏的连接个数)就变成了100 x 10x10=10,000个。

这就是权值共享的全部。


  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值