关于BP算法和梯度下降

本文探讨了神经网络中的BP算法,重点在于其组成部分:向前传播和反向传播。反向传播利用梯度下降法修正权重,以减少预测值与真实值之间的误差。通过计算损失函数对权重的偏导数,确定权重更新的方向,从而优化网络性能。学习率在权重更新中的作用是控制调整步长,确保成本函数朝着减小的方向变化。
摘要由CSDN通过智能技术生成

最开始学习神经网络,感触最深的就是BP算法,当时只用到却没有好好体会它背后的深意,在RNN中也会用到一个类似的算法(BPTT下面会具体讲)。对神经网络有些了解,就会熟悉BP算法由两个部分组成,向前传播和反向传播。

向前传播从输入层经过隐藏层到输出层,给出预测结果,在第一次传输过程中,使用到的权重(或者说参数)都是最开始随机初始化的,可想而知这样随机初始化的权重,最后得到的结果,与真实值的误差一定是很大的。

那么神经网络要做的一件事其实就是得到与真实值相近甚至一样的预测值,那么就把问题指向了如何修正这些权重值,才能使得预测值接近真实值。这就有了代价函数,计算真实值和预测值之间的误差,以这个误差为基准,进行BP的第二个部分,反向传播。这个过程的核心就是梯度下降法,求每个权重对应误差的偏导数值,以此作为修正权重的依据。不知道大家有没有思考过,为什么反向传播要求L对W的导数呢?(L值代价,W是权重)

 

反向传播的意义是,修正权重并且缩小cost值,权重更新公式是 W = W - Learning_rate * dw

求导就保证了,参数的更新是朝着正确的方向,也就是使cost缩小的方向进行的,

 

 

这个图是过于简单了,但只是为了说明问题,就不用计较这些细节了。图一如果co

  • 3
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值