Logistic Regrestion (逻辑斯蒂克回归)

本文介绍了逻辑回归(Logistic Regression)的原因,指出线性回归在分类问题上的局限性。Logistic Regression通过sigmoid函数转换预测概率,并利用最大似然估计来优化模型,以最大化假设成立的概率。损失函数为负对数似然损失,其梯度用于更新模型参数。关键词涉及概率模型、假设检验、sigmoid函数和损失函数优化。
摘要由CSDN通过智能技术生成

Logistic Regrestion (逻辑斯蒂克回归)

为什么使用Logistic regression

给定训练数据,有无数种Linear regression分类(超平面 W x + b Wx+b Wx+b),无法确定两个超平面孰优孰劣。导致了线性回归模型分类的方法鲁棒性差,在整体数据上分类精度较差。针对上述问题,引入了Logistic regression。

什么是Logistic regression

Logistic regression采用假设检验的思想,设
y ^ = P ( y = 1 ∣ x , θ ) = 1 1 + e − θ T x θ = [ w 1 , w 2... w n , b ] , x = [ x 1 , x 2... x n , 1 ] \hat y=P(y=1| x,\theta) = \frac 1 {1+e^{-\theta^Tx}}\\ \theta = [w1, w2...wn,b], x =[x1,x2...xn,1] y^=P(y=1∣x,θ)=1+eθTx1θ=[w1,w2...wn,b],x=[x1,x2...xn,1]
概率P表示假设: y = 1 y=1 y=1 的置信度。同理可得
1 − y ^ = P ( y = 0 ∣ x , θ ) = e − θ T x 1 + e − θ T x 1-\hat y=P(y=0| x,\theta) = \frac {e^{-\theta^Tx}} {1+e^{-\theta^Tx}} 1y^=P(y=0∣x,θ)=1+eθTxeθTx
表示假设y=0的置信度。


P ( Y ∣ x , θ ) = y ^ y + ( 1 − y ^ ) 1 − y P(Y|x,\theta) = \hat y ^y + (1-\hat y)^{1-y} P(Yx,θ)=y^y+(1y^)1y
示整体的假设检验概率。 使用log函数对P进行简化:
l o g P = y l o g ( y ^ ) + ( 1 − y ) l o g ( 1 − y ^ ) log P = y log(\hat y) + (1-y)log(1-\hat y) logP=ylog(y^)+(1y)log(1y^)
l o g P log P logP 表示全体假设成立的概率。Logistic regression 目标为使得全体假设成立的概率最大化所对应的参数 θ \theta θ .
所以,由此可以得到用于优化的损失函数 :
L o s t ( x , θ ) = − l o g P = − y l o g ( y ^ ) − ( 1 − y ) l o g ( 1 − y ^ ) \begin{align*} Lost(x,\theta) &= -log P \\ &= -y log(\hat y) - (1-y)log(1-\hat y)\\ \tag{5} \end{align*} Lost(x,θ)=logP=ylog(y^)(1y)log(1y^)
其中,计算置信度的函数为sigmoid函数:
s i g m o i d ( x ) = 1 1 + e − x (6) sigmoid(x) = \frac 1 {1+e^{-x}}\tag{6} sigmoid(x)=1+ex1(6)
计算梯度:
d w i = ( y ^ − y ) × x i d b = y ^ − y (7) dw_i = (\hat y -y)\times x_i\\ db = \hat y - y \tag{7} dwi=(y^y)×xidb=y^y(7)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值