卷积核是如何更新的_什么?卷积层会变胖?人工智能之光---CNN卷积神经网络(原理篇)...

本文深入探讨了BP神经网络的局限性,引出CNN卷积神经网络。CNN通过局部连接和权值共享减少计算量,加速训练。卷积层通过卷积核提取图像特征,池化层进一步压缩信息。CNN的训练过程类似BP网络,但其结构特点提高了模型的泛化性,广泛应用于图像识别等领域。
摘要由CSDN通过智能技术生成

c201c9d8090a6ccc2d8a3234c90faa85.png

0.学习路径示意图

1018cd7f55782c5eccd2e16093d28b72.png


Hello,各位小伙伴大家晚上好呀,你们期待已久的CNN卷积神经网络原理篇要来咯。上期我们讲到神经网络已经逐步成为人类智能生活的璀璨明珠,并介绍了BP神经网络的整个训练过程,整个流程紧凑而又科学,似乎BP神经网络已经能解决很多问题了,但细心的小伙伴会发现博主并没有提及BP神经网络的缺点,是的,博主并没有提及,其实是博主忘记了....

b18bd21ee0989919848d3a55f72ecf97.png


But,这并不影响我们CNN的教学,这期内容博主正好通过BP神经网络的缺点来开展CNN的教学,换个角度想,这还起到承上启下的作用,刺不刺激,惊不惊喜?这都能被博主圆了过来。

77ad6141d55539709bae8620d31bd314.png


好了,废话不多说,这期内容主要分为以下几点:

  1. BP神经网络的局限性
  2. CNN卷积神经网络的原理
  3. CNN卷积神经网络的超参数设置
  4. 总结

1.BP神经网络的局限性
相信看过上期的内容的小伙伴们应该都会比较熟悉BP神经网络了。没有看过的小伙伴也可以去看一看,BP神经网络虽然我们不常用,但是它的原理是CNN,RNN,乃至于其他网络结构都会涉及的。

深度学习开端---BP神经网络​mp.weixin.qq.com

7ea89c4c2a114540f0e7e4267cce9cdc.png


为了讲清BP网络的局限性,博主还是拿出上期画的最简单的BP网络结构图来讲解,相信小伙伴们对这个图也不陌生了把。想一下,上一期我们为了求解损失Loss 列出了关于wb 的方程,并通过梯度下降的方法去求解最佳的(w , b),从而得到最小的损失Loss。换言之,上一期的内容我们简单来讲就是站在山上找最陡峭的地方(梯度),不断地往下走,一直走到山谷,这时候的我们所在坐标(w , b)就是Loss方程的最优解。
为此,针对上面的这个网络结构,我们要对隐藏层和输出层求4个偏导,又因为隐藏层的输出作为输出层的输入,这时我们就要用到求偏导的链式法则,公式如下:

afa6173d930423139a20dc56fca920df.png


由上面的公式,我们可以看出,两个神经元,为了求出隐藏层和输出层最佳的(w , b),我们就要求四个偏导,期间还得为链式求导付出4次连乘的代价。

54770b90eb326b6305a76247f52645f8.png


现在,重点来了,如上图,倘若我们的网络层次越深,偏导连乘也就越多,付出的计算代价也就越大。
仅接着,

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值