李飞飞计算机视觉-自用笔记(第二周)

本文主要介绍了神经网络的反向传播算法,解释了如何利用链式法则求解梯度,并探讨了神经网络的结构。此外,还讨论了卷积神经网络的特点,卷积层和池化层的作用,以及训练神经网络时的激活函数选择,包括Sigmoid、tanh、ReLU及其变种,以及数据预处理、权重初始化、批量归一化等关键步骤。
摘要由CSDN通过智能技术生成

4 神经网络

先导知识:
计算图框架:用图来表示任意函数,其中图的节点表示要执行的每一步计算

4.1 反向传播

反向传播本质:运用链式法则从后往前求微分,从最后一层损失函数开始,对于前面一层的变量求微分,在之后向前传播的过程中,每层都要乘上该层的本地微分
小结:

  1. 神经网络通常非常庞大和复杂,将所有参数的梯度公式都写下来是不现实的,为了得到这些梯度,应该用反向传播算法
  2. 反向传播算法:链式法则的递归应用
  3. 计算图结构:可以看做正向和反向计算的API

4.2 神经网络

此处可参考
机器学习-吴恩达(第二周)
机器学习-吴恩达(第三周)
将神经元进行抽象的好处:便于采用高效的向量化代码进行运算

5 卷积神经网络

卷积神经网络与常规神经网络的构想基本一致,不同的是它需要训练卷积层,用来保留输入的空间结构

卷积和池化

卷积层和全连接层的主要差别:卷积层可以保全空间结构,其权重为卷积核,卷积核在整个图像上滑动,计算

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值