十大机器学习算法-逻辑回归(LR)

简介

逻辑斯蒂回归(logistic regression,LR)是统计学习中经典的分类方法,属于对数线性模型。是目前使用最多的机器学习分类方法,在推荐系统中的应用非常广泛。

基本思想

假定只考虑二分类问题,随机变量X取值为实数,随机变量Y取值为1或0。二项逻辑斯蒂回归模型是如下的条件概率分布:
P ( Y = 1 ∣ x ) = e x p ( w ⋅ x + b ) 1 + e x p ( w ⋅ x + b ) P ( Y = 0 ∣ x ) = 1 1 + e x p ( w ⋅ x + b ) P(Y=1|x) = \frac{exp(w\cdot x +b)}{1+exp(w\cdot x +b)} \\ P(Y=0|x) = \frac{1}{1+exp(w\cdot x +b)} P(Y=1x)=1+exp(wx+b)exp(wx+b)P(Y=0x)=1+exp(wx+b)1
其中 x ∈ R n x\in \mathbb{R}^n xRn 是输入, Y ∈ { 0 , 1 } Y\in \{0,1\} Y{ 0,1} 是输出, w ∈ R n w\in \mathbb{R}^n wRn b ∈ R b\in \mathbb{R} bR是参数。 w w w 称为权值向量, b b b 称为偏置, w ⋅ x w\cdot x wx w w w b b b的内积。

逻辑斯蒂回归模型的特点:一个事件的几率(odds)是指该事件发生的概率与该事件不发生的概率的比值。如果事件发生概率是 p p p,那么该事件的几率是 p 1 − p \frac{p}{1-p} 1pp,该事件的对数几率或logit函数是 l o g i t ( p ) = l o g p 1 − p {\rm logit}(p) = {\rm log}\frac{p}{1-p} logit(p)=log1pp
对LR而言,有
l o g P ( Y = 1 ) 1 − P ( Y = 1 ) = w ⋅ x + b {\rm log} \frac{P(Y=1)}{1-P(Y=1)} = w\cdot x +b log1P(Y=1)P(Y=1)=wx+b
在逻辑斯蒂回归模型中,输出 Y = 1 Y=1 Y=1 的对数几率是输入 x x x 的线性函数

模型参数估计

设:
P ( Y = 1 ∣ x ) = π ( x ) ,   P ( Y = 0 ∣ x ) = 1 − π ( x ) P(Y=1|x) = \pi(x),\ P(Y=0|x) = 1-\pi(x) P(Y=1x)=π(x), P(Y=0x)=1π(x)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值