逻辑回归中的梯度下降法

梯度下降法:该算法是一个一阶最优化算法,通过向函数上当前点对应梯度(或近似梯度)的反方向的规定步长距离点进行迭代搜索找到一个函数的局部极小值。

以一元函数为例说明梯度下降法:

w的更新会朝着成本函数J(w)减小的方向更新,训练w就是不断重复以下过程:

重复{

w:=w-\partial \frac{dJ(w)}{dw}

}

:=表示更新,\partial表示学习率,\frac{dJ(w)}{dw}是J(w)关于w的导数。

逻辑回归中的梯度下降:

在逻辑回归中,我们需要训练两个参数w和b。关于为什么是w和b,可以看上一篇文章深度学习理解和应用

对于这两个参数需要重复{

w:=w-\partial \frac{\partial J(w,b)}{\partial w}

b:=b-\partial \frac{\partial J(w,b)}{\partial b}

}

\frac{\partial J(w,b)}{\partial w}表示成本函数J(w,b)对w求偏导。

怎样计算偏导数来实现逻辑回归的梯度下降法?

假设一个样本有两个特征,分别是x1和x2,则逻辑回归有以下步骤:

 标注:\delta (z)=\frac{1}{1+e^{-z}}   ;  L(a,y)=-(y\log a+(1-y)\log (1-a))

其中y是真实值,a是预测值。

在实现逻辑回归的算法中包括向前求预测值 a,以及利用损失函数L(a,y)反向更新w和b的过程。

更新公式为:

w1:=w1-\partial \frac{\partial L}{\partial w1}            w2:=w2-\partial \frac{\partial L}{\partial w2}         b:=b-\partial \frac{\partial L}{\partial b}

以w1为例更新时主要需要计算\frac{\partial L}{\partial w1}。计算公式如下:

\frac{\partial L}{\partial w1}=\frac{\partial L}{\partial z}\cdot \frac{\partial z}{\partial w1}=x1\ast \frac{\partial L}{\partial z}

\frac{\partial L}{\partial z}=\frac{\partial L}{\partial a}\cdot \frac{\partial a}{\partial z}\frac{\partial L}{\partial z}=\frac{\partial L}{\partial a}\cdot \frac{\partial a}{\partial z}=(-\frac{y}{a}+\frac{1-y}{1-a})\ast [a(1-a)]=a-y

注:  a=\delta (z)=\frac{1}{1+e^{-z}}  是sigmoid函数,对于sigmoid函数  a^{'}=a\ast (1-a)

因此  \frac{\partial L}{\partial w1}=x1\ast(a-y)

同理  \frac{\partial L}{\partial w2}=x2\ast(a-y)          \frac{\partial L}{\partial b}=a-y

根据以上公式即可计算参数的更新。

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值