一张图理解训练的BP反向传播



经过同学许可,借用他的图来讲讲深度学习的反向传播,不涉及具体推导,宏观把握原理。

深度学习训练过程是训练模型的过程,实质上不过是权值更新的过程(不知理解对不对),即图上公式从W(old)到W(new)的过程,当然这里是循环往复、迭代进行。


h(x)是旧的权值参数和特征向量的内积,是实数。再经过激活函数例如sigmoid函数归一化带到网络的预值f(x),最后计算损失函数J,公式里y是标签值,你懂得,预测值与标签值求距离越小代表预测越准,这个J实际就是loss,最下面是权值更新公式,a对应是深度学习的学习率,这样得到w(new)带入h(x) 进行前向传播。

 循环进行,直到J最小,此时的w即是模型里的参数值。

希望讲的够简单明了。


  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值