Backpropagation Algorithm记录

http://deeplearning.stanford.edu/wiki/index.php/Backpropagation_Algorithm

UFLDL Tutorial 中没有给出推导公式,这里简单记录一下记法和简单推导过程

文章中用到的记法:                                                                                                                                        

                              

这个是单个sample的cost function.


                             

这个是最终的损失函数,其中是hypothesis,是regularizationparameter weight decay parameter.

是第层第个节点,连接到个节点的权值,是第层第个节点的输入,也就是,当时,就是是第层第个节点的输出

利用梯度下降,我们要求解

                       

然后做权值更新

                       


其中

那么就可以得到

问题就在于求解,分成两种情况,第一种是,即处于输出层,第二种是其他的层,利用求导的链式法则有.

对于第一种情况

对于第二种情况


由此得到算法:

  1. Perform a feedforward pass, computing the activations for layers, and so on up to the output layer .
  2. For each output unit i in layer (the output layer), set                                                                                                                              
  3. For  :For each node i in layer l, set:                                                                                                            
  4. Compute the desired partial derivatives, which are given as:                                                                                                               




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值