小白式机器学习 (一) | logistic regression(LR)对数几率回归 / 逻辑回归 公式推导

因为是傻瓜式教程,所以一定会非常详细!一些概念link到了Wiki的相应解释上。
欢迎捉虫~!

二分类和回归的关系

考虑  xy   x ⇒ y 表示的二分类或回归问题,其中  x   x 是输入,  y   y 是输出。
1. 在二分类中,  y   y 的值取0或1,代表被分为正类或负类。在回归中,  y   y 的取值为连续值。
2. 在线性回归模型中,  y=wTx=wx   y = w T x = w ⋅ x ,此处  w   w 为参数向量,  x   x 为输入样本向量。
3. 进一步,广义线性回归模型可以写为  g(y)=wx   g ( y ) = w ⋅ x 或者  y=g1(wx)   y = g − 1 ( w ⋅ x ) 的形式,其中  g   g 为单调可微函数。所以在对数回归中,模型是  ln(y)=wx   l n ( y ) = w ⋅ x

sigmoid函数与LR的关系

sigmoid函数:在数学上是拥有性感的s形曲线样子的函数:
这里写图片描述

通常说的sigmoid函数指的是这个logistic函数  δ(z)=11+ez=ez1+ez   δ ( z ) = 1 1 + e − z = e z 1 + e z 。本文所指的sigmoid函数就是该logistic函数:
这里写图片描述

sigmoid函数具有以下特点:
- 值域在(0,1)
- 求导非常容易  δ(z)=δ(1δ(z))   δ ′ ( z ) = δ ( 1 − δ ( z ) ) (求导过程见附录,或Wiki)

我们希望在做二分类时,输出  y   y 不再是非0即1的取值,而是希望输出一个有概率意义的  (0,1)   ( 0 , 1 ) 之间的值,表示的是分为正类的概率(所以  1y   1 − y 是分为负类的概率),然后再做二分类,所以我们挑选sigmoid函数作为广义线性回归的 g1 g − 1 ,即

y=δ(wx)=11+ewx(1) (1) y = δ ( w ⋅ x ) = 1 1 + e − w ⋅ x
接下来将符合  y=g1(wx)   y = g − 1 ( w ⋅ x ) 形式的  (1)   ( 1 ) 写为  g(y)=wx   g ( y ) = w ⋅ x 的形式,则
y+yewx=1 y + y e − w ⋅ x = 1
yewx=1y y e − w ⋅ x = 1 − y
ewx=1yy e − w ⋅ x = 1 − y y
wx=ln(1yy) − w ⋅ x = l n ( 1 − y y )
wx=ln(y1y)(2) (2) w ⋅ x = l n ( y 1 − y )

所以,现在  g(y)=ln(y1y)   g ( y ) = l n ( y 1 − y )
前面说到,输出值  y   y 代表分到正类的概率,  1y   1 − y 代表分到负类的概率,那么  y1y=
  • 21
    点赞
  • 53
    收藏
    觉得还不错? 一键收藏
  • 7
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值