卷积神经网络与全相联网络的对比以及卷积神经网络的梯度递减实现方法

这篇博客探讨了卷积神经网络与全相联网络的差异,指出卷积网络是一种瘦身版的全连接网络,其节点仅与部分输入相连,并共享权重。同时,介绍了如何从全连接网络的梯度下降推导出卷积网络的梯度下降方法,并提到了卷积后的最大池化操作。
摘要由CSDN通过智能技术生成

本篇博客主要介绍一下卷积神经网络与全相联网络的对比,然后介绍卷积神经网络的梯度递减法如何从全相联网络的梯度递减法推导。
这里写图片描述
假设有上面一张图片,需要经过卷积层,我们的卷积核如下图所示
这里写图片描述
经过卷积得到如下图片:
这里写图片描述
我们给这些图片矩阵从左到右,从上到下编号并且展开得到下面的网络结构


卷积网络图

这里写图片描述


全相联网络图

全相联

将卷积网络图与全相联网络图进行对比,我们能够发现:
1.卷积网络可以看成一种瘦小化的全相联网络,卷积网络第二层节点只连接了上一层少数的几个输入,而全相联网络结构第二层节点要连接上一层所有的输入节点。
2.卷积网络的某些连接路径共用了权重,如上图,相同颜色的路径共用同一个权重。

卷积完之后会有一个池化层,以最大池化( 2×2 )为例。
这里写图片描述

L1w1=L1
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值