ML2-逻辑回归

本文深入探讨了LR(对数几率回归)的概念,它利用线性模型通过对数几率函数实现分类任务。核心思想是将线性回归的预测值转化为对数几率,以逼近真实标记。目标函数通过极大似然法构建,并使用梯度下降或牛顿法进行优化。文章还介绍了对数似然函数及如何求解最小化问题。
摘要由CSDN通过智能技术生成

1. LR-对数几率回归

  • 核心思想:线性归回模型 f ( x i ) = w T x i + b f(x_i)=w^Tx_i+b f(xi)=wTxi+b 借助对数几率函数 y i = 1 1 + e − z i y_i=\frac{1}{1+e^{-z_i}} yi=1+ezi1实现分类任务。
  • 基本形式 l n y i 1 − y i = w T x i + b ln\frac{y_i}{1-y_i}=w^Tx_i+b ln1yiyi=wTxi+b
    • 几率: y i 1 − y i \frac{y_i}{1-y_i} 1yiyi。即, x 是 正 类 的 相 对 可 能 性 x是正类的相对可能性 x
    • 对数几率: l n y i 1 − y i ln\frac{y_i}{1-y_i} ln1yiyi
    • 对数几率归回: L o g i s t i c   R e g r e s s i o n Logistic \ Regression Logistic Regression。用线性回归模型的预测结果去逼近真实标记的对数几率。
  • 目标函数:使用极大似然法构建目标函数
    • 似然函数:
      L ( w ^ ) = ∏ i = 1 m p ( y i ∣ w ^ ) = ∏ i = 1 m p 1 y i ( 1 − p 1 ) 1 − y i L(\hat{w}) = \overset{m}{\underset{i=1}{\prod}}p(y_i|\hat{w})=\overset{m}{\underset{i=1}{\prod}}p_1^{y_i}(1-p_1)^{1-y_i} L(w^)=i=1mp(yiw^)=i=1mp1yi(1p1)1yi
    • 对数似然函数:
      ℓ = l n L ( w ^ ) = ∑ i = 1 m y i l n ( w ^ x i ) + ( 1 − y i ) l n ( 1 − w ^ x i ) \ell = lnL(\hat{w}) = \overset{m}{\underset{i=1}{\sum}}y_iln(\hat{w}x_i)+(1-y_i)ln(1-\hat{w}x_i) =lnL(w^)=i=1myiln(w^xi)+(1yi)ln(1w^xi)
    • 求极大→求极小: w ^ ∗ = a r g   m i n w ^   ℓ = a r g   m i n w ^ ∑ i = 1 m ( − y i w ^ x i + l n ( 1 + e w ^ x i ) ) \hat{w}^*= \underset {\hat{w}}{arg \ min}\ \ell = \underset {\hat{w}}{arg \ min} \overset{m}{\underset{i=1}{\sum}}(-y_i\hat{w}x_i + ln(1+e^{\hat{w}x_i})) w^=w^arg min =w^arg mini=1m(yiw^xi+ln(1+ew^xi))
  • 求解方法:梯度下降法、牛顿法。
  • 4
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

代码大玩家

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值