温故而知新-2.lr,神经网络,bgd,sgd

线性回归、逻辑回归、神经网络一般用梯度下降更新权值,原理基本一样,所以放到一起

分类加上sign函数即可

线性回归

loss=1/2*pow(y-fx,2) ,如果数据正态发布,符合最大似然估计概率

bgd:zetaj=zetaj+a/m*sum(y-h(x))*xj 收敛慢

最小二乘zeta=(xT*x)-1*xT*y  x需要列满秩,矩阵逆难求

逻辑回归

牛顿法:??

bgd: fx=1/(1+exp(-z))

最大似然估计=mul(pow(fx,y)*pow(1-fx,1-y))

j=1/2m*sum(ylogfx+(1-y)log(1-fx))

zeta=zeta-a*j的偏导

j偏导=1/m*sum(y/fx+(y-1)/(1-fx))fx'=1/m*sum(y/fx+(y-1)/(1-fx))*-xi*exp(-z)/pow(1+exp(-z),2)

=1/m*sum(y/fx+(y-1)/(1-fx))*fx*(1-fx)*xi=1/m*sum(y*(1-fx)+(y-1)fx)*-xi

=1/m*sum(fx-y)xi

BP神经网络

sgd:

Ek=1/2*sum(y-y')*(y-y')

以隐含层第h个神经元的权值为例:Whj=Whj-a*e'/Whj

l-1层:e'/whj=-sum(oy-y)f'|x=netk(l)*whjk*f'|x=netk(l-1)

=-sum(whj*errorL*fx(l)'*fx(l-1)'*h(l-2))

一层一层求出误差*权重更新当前的权值


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值