李宏毅机器学习笔记-7 反向传播算法(Backpropagation)

Backpropagation-反向传播算法


1 前言

1.1 为什么要用 Backpropagation

  • 在神经网络中的梯度下降算法和之前求线性回归方程中用的没有太大的区别,都是不断的计算微分,然后更新参数,最终找到一个最优解。

  • 但是在神经网络中,有着大量可能多达上百万个的参数,所以传统的求微分方法行不通,计算量太大无法快速有效的求出微分。

    1526280459578

1.2 链式求导法则(Chain Rule)

  • Backprogation 中设计的最重要的数学知识就是 chain rule,通过下面的图片回顾一下。这个都不会就要回去读高中了。

    1526280795387

    2 Backpropagation

    2.1 应该求什么

    从上一节内容我们知道,每一个神经网络都需要定义一个 Loss Function, 用来定义实际输出与预期输出之间的误差 Cn C n ,则总的误差就是

    1526281509580

    我们的目的就是要使上式的值最小。用 Gradient descent 来做的话就是这个式子对权值 w w 求偏导,即

    1526281766830

    由此我们知道只需要求每个 C n w w 的偏导,然后全部加起来就可以了。

    2.2 Forward pass

    1526282352210

  • 对上面这个 Neural 来说,根据 Chain Rule,

    1526282731455 1526282740631

    很明显,计算 z / w 是很容易的,如在上图中,

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值