【机器学习模型详细推导2】- 逻辑回归

1. 模型引入

线性模型可以进行回归学习(参见【机器学习模型1】- 线性回归),但如何用于分类任务?需要找一个单调可微函数将分类任务的真实标记y与线性回归模型的预测值联系起来。
对于二分类任务,输出标记 y y y 取值 { 0 , 1 } \{0, 1\} { 0,1},而线性回归预测值 z = w T x + b z = w^Tx+b z=wTx+b 属于实数集 R R R,所以需要一个变换使实值 z z z 映射到 0 / 1 0/1 0/1 值。
引入 S i g m o i d Sigmoid Sigmoid 函数: y = 1 1 + e − z y=\frac{1}{1+e^{-z}} y=1+ez1,可以将 z z z 值转为一个接近0或1的 y y y 值,而且单调可微。图像如下:
Sigmoid函数图像

2. 模型描述

根据广义线性模型 y = g − 1 ( θ T x ) y=g^{-1}(\theta^T x) y=g1(θTx)定义,将Sigmoid函数作为 g − 1 ( ) g^{-1}() g1()代入:
h θ ( x ) = 1 1 + e − θ T x h_\theta(x) = \frac{1}{1+e^{-\theta^T x}} hθ(x)=1+eθTx1

对数几率函数:逻辑回归也称为对数几率函数。

  • h θ ( x ) h_\theta(x) hθ(x)反映了作为正例的可能性 ,则 1 − h θ ( x ) 1-h_\theta(x) 1hθ(x) 反映了作为负例的可能性
  • 所以 h θ ( x ) 1 − h θ ( x ) \frac{h_\theta(x)}{1-h_\theta(x)} 1hθ(x)hθ(x)反映了作为正例的相对可能性, h θ ( x ) 1 − h θ ( x ) > 1 \frac{h_\theta(x)}{1-h_\theta(x)} > 1 1hθ(x)hθ(x)>1,则为正例,称为 “几率”
  • l n h θ ( x ) 1 − h θ ( x ) ln\frac{h_\theta(x)}{1-h_\theta(x)} ln1hθ(x)hθ
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值