反向传播

 

 反向传播是为了更新参数,参数更新要用代价函数对参数求导,但是参数可能是经过很多层间接作用到最后一层的输出上的。 所以用先计算每层输入对最后代价函数的影响, 最后对参数的更新就可以表示为代价函数对每层的影响残差 (代价函数每一层的输入求偏导)再链式乘上输入对参数求偏导。最后参数的更新值就变为:每层的残差乘上上一层的输出。

而在计算每一层的残差时,l层的残差是建立在l+1层的残差之上的,因为我们最先能算出倒数第一层的残差,(代价函数对第l层的输入求偏导,相当于对l+1 层的输入求偏导,再乘上l+1层的输入对l层的输出求偏导,这两个值已经能得到)

 激活函数详解:http://www.cnblogs.com/fanhaha/p/7061318.html

 

 

 

 

流程:

输入训练集

对于训练集中的每个样本x,设置输入层(Input layer)对应的激活值
  • 前向传播:
     , 
    计算输出层产生的错误:
      
    反向传播错误:
    
       使用梯度下降(gradient descent),训练参数:
 
          
 
          
 

参考博文:http://www.cnblogs.com/Crysaty/p/6138390.html

 

补充问题: 防止过拟合?

                  梯度下降解释

转载于:https://www.cnblogs.com/fanhaha/p/7061450.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值