Logistic Regression逻辑回归的一些知识点

关于Logistic Regression的一些知识点:

  1. 为什么损失函数不用平方误差:
    L = 1 2 m ∑ i m ( y ^ − y ) 2 L = \frac{1}{2m}\sum_i^m(\hat{y}-y)^2 L=2m1im(y^y)2
    答:这样的损失函数不是凸的,梯度下降法会陷入局部最小值。
    在这里插入图片描述
    二分类问题的损失函数:
    L = − 1 m ∑ i m ( y log ⁡ y ^ + ( 1 − y ) log ⁡ ( 1 − y ^ ) ) L = -\frac{1}{m}\sum_i^m(y\log\hat{y}+(1-y)\log(1-\hat{y})) L=m1im(ylogy^+(1y)log(1y^))

另外,使用平方误差 + sigmoid激活函数,所得backprop梯度为:
{ δ L = ( y ^ − y ) ⊙ σ ′ ( z L ) δ l = ( W l + 1 ) T δ l + 1 ⊙ σ ′ ( z l ) \left\{\begin{aligned} &\delta^L = (\hat{y} - y)\odot \sigma'(z^L)\\ &\delta^l = (W^{l+1})^T\delta^{l+1}\odot \sigma'(z^l) \end{aligned}\right. {δL=(y^y)σ(zL)δl=(Wl+1)Tδl+1σ(zl)

而使用交叉熵,所得backprop梯度为:
δ L = y ^ − y \delta^L = \hat{y} - y δL=y^y
表达式里面没有了 σ ′ ( z ) \sigma'(z) σ(z),一定程度上避免了反向传播梯度小,收敛速度慢的问题。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值