【机器学习】反向传播

参考

华为云学院

概述

反向传播算法使用链式求导法则将输出层的误差反向传回给网络,使网络中的权重有了较简单的地图计算方法。像TensorFlow,Pytorch有现成的反向传播实现。

正向传播

首先定义一个简单的神经网络,正向传播的过程如下所示
在这里插入图片描述
以此类推,到达预测值y的位置如下。
在这里插入图片描述

误差的反向传播

接着计算预测值与真实值的误差
在这里插入图片描述
接着可算出上一层的误差,本层的误差由“下一层的误差”乘以“它们之间的权重”。
在这里插入图片描述
在这里插入图片描述

权重更新

然后权重的更新如下所示。
在这里插入图片描述
以此类推到最后一层的权重更新如下
在这里插入图片描述

梯度消失与梯度爆炸

对于链式求导来说,神经网络的层数越多,求导的结果就越小,因而导致梯度消失的情况。梯度爆炸指的是权重比较大的情况,但是对于sigmoid函数来说,这种情况比较少。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值