深入浅出反向传播原理 Backpropagation

本文详细介绍了反向传播算法在深度学习中的应用,通过链式法则简化神经网络参数的梯度下降优化计算。首先回顾梯度下降法和链式法则,然后逐步阐述反向传播算法的步骤,包括前向传播与反向传播过程中的计算,最后总结反向传播算法如何利用递归求解微分,实现神经网络的训练。
摘要由CSDN通过智能技术生成

前述

在深度学习中,我们的训练模型是一个多层次的神经网络,每个节点对应一个激活函数,上一个Layer的输出就是下一个Layer的输入。这样的模型,非常像复合函数层层的依赖关系:可以把第一层Layer想象成g(x),则经过下一个Layer,函数就可以表示成f[g(x)]。依靠链式法则,我们可以简化对神经网络梯度下降优化参数时的计算,从而大大减少训练所需时间,这就是反向传播算法。可以说反向传播算法只是链式法则原理的一个应用。

为了在以后能记住反向传播原理,特将其推导过程记录如下,便于回忆。本文图片内容来源于台湾大学李宏毅教授的机器学习课程。本文的内容包含了很多个人的理解,如有纰漏或错误,还请指出。

台湾大学李宏毅反向传播视频资源:
https://www.youtube.com/watch?v=ibJpTrp5mcE
https://www.bilibili.com/video/av15889450/?p=11
台湾大学李宏毅反向传播课程pdf:
http://speech.ee.ntu.edu.tw/~tlkagk/courses/ML_2016/Lecture/BP.pdf


储备原理:梯度下降法 和 链式法则

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值