深度学习(Deep Learning) 2.BP算法

深度学习(Deep Learning) 2.BP算法


1 Gradient Descent

  • 初始化参数 θ0
  • 计算 L(θ0) θ1=θ0ηL(θ0) ……
  • 神经网络中参数巨多!

2 Chain Rule 链式法则

  • y=g(x),z=h(y)
    dzdx=dzdy+dydx
  • x=g(s),y=h(s),z=k(x,y)
    dzds=zxdxds+zydyds

3 BackPropagation

  • L(θ)=nCn(θ)
  • L(θ)w=nCn(θ)w
  • Cz=Caaz Ca=zaCz+Czza a=σ(z)
  • Cz=σ(z)(w3Cz+w4az)

4 BP算法推导

  给定训练集 D={(x1,y1),(x2,y2),,(xm,ym)},xiRd,yiRl ,输入层d个神经元,输出层l个,隐藏层q个。输出层第j个神经元的阈值为 θj ,隐藏层第h个神经元的阈值为 γh
2017-04-14 10-12-39屏幕截图.png-99.9kB
  对于训练实例 (xk,yk) ,假设其输出为 ŷ k=(ŷ k1,ŷ k2,,ŷ kl) ,即 ŷ kj=f(βjθj) ,误差为 Ek=12j=1l(ŷ kjykj)2

网络中总共有 (d+l+1)q+l 个参数需要确定:输入层到隐藏层的 dq 个,隐藏层到输出层的 ql 个, q 个隐藏层神经元阈值,l个输出层神经元阈值

  • 隐藏层到输出层的权值 whj 的推导: whj=ηEkwhj
    Ekwhj=Ekŷ kjŷ kjβjβjwhj ,且 βjwhj=bh
    sigmoid函数的性质有: f(x)=f(x)(1f(x))
    gj=Ekŷ kjŷ kjβj=(ŷ kjykj)f(βjθj)=ŷ kj(1ŷ kj)(ykjŷ kj)
    因此 whj=ηgjbh
  • 类似可以得到:
    θj=ηgj
    vih=ηehxi
    γh=ηeh
    其中 eh=Ekbhbhαh=j=1lEkβjβjbhf(αhγh)=j=1lwhjgjf(αhγh)=bh(1bh)j=1lwhjgj
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值