机器学习常用算法:Logistic Regression

逻辑斯谛分布

X X 是连续随机变量, X X 服从逻辑斯谛分布是指 X X 具有下列分布函数和密度函数:
分布函数

F(x)=P(Xx)=11+e(xμ)/γ

密度函数

f(x)=F(x)=e(xμ)/γγ(1+e(xμ)/γ)2 f ( x ) = F ′ ( x ) = e − ( x − μ ) / γ γ ( 1 + e − ( x − μ ) / γ ) 2

式中, μ μ 为位置参数, γ γ 为形状参数。
其分布函数是S形函数,其特点是当x趋于无穷大时,概率值趋于1;当x趋于无穷小时,概率值趋于0.

逻辑斯谛回归模型

逻辑斯谛回归模型是由以下条件概率分布表示的分类模型,可用于二类或多类分类。

P(Y=k|x)=exp(wkx)1+K1i=1exp(wkx),k=1,2,...,K1 P ( Y = k | x ) = e x p ( w k ⋅ x ) 1 + ∑ i = 1 K − 1 e x p ( w k ⋅ x ) , k = 1 , 2 , . . . , K − 1

P(Y=K|x)=11+K1i=1exp(wkx) P ( Y = K | x ) = 1 1 + ∑ i = 1 K − 1 e x p ( w k ⋅ x )

式中, x x 为输入特征,w 为特征的权值向量。

逻辑斯谛回归比较两个条件概率值的大小,将实例 x x 分到概率值较大的那一类。

补充:
几率:一个事件的几率是指该事件发生的概率与该事件不发生的概率的比值。如果事件发生的概率为p,那么该事件的几率为p1p,该事件的对数几率是

logit(p)=logp1p l o g i t ( p ) = l o g p 1 − p

在逻辑斯谛回归模型中,输出Y=1的对数几率为

logit(P(Y=1|x))=logP(Y=1|x)1P(Y=1|x)=wx l o g i t ( P ( Y = 1 | x ) ) = l o g P ( Y = 1 | x ) 1 − P ( Y = 1 | x ) = w ⋅ x

即输出Y=1的对数几率是由输入x的线性函数表示的模型

模型参数估计

对于给定的训练集 T={(x1,y1),(x2,y2),...,(xN,yN)} T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } ,其中, xiRn x i ∈ ℜ n yi{0,1} y i ∈ { 0 , 1 } 。可以应用极大似然估计法估计模型参数 w w ,从而得到逻辑斯谛回归模型。
设:P(Y=1|x)=π(x) , P(Y=0|x)=1π(x) P ( Y = 0 | x ) = 1 − π ( x )
其似然函数为

i=1N[π(xi)]yi[1π(xi)]1yi ∏ i = 1 N [ π ( x i ) ] y i [ 1 − π ( x i ) ] 1 − y i

其对数似然函数为
L(w)=i=1N[yilogπ(xi)+(1yi)log(1π(xi))]=i=1N[yilogπ(xi)1π(xi)+log(1π(xi))]=i=1N[yi(wxi)log(1+exp(wxi))] L ( w ) = ∑ i = 1 N [ y i log π ( x i ) + ( 1 − y i ) log ( 1 − π ( x i ) ) ] = ∑ i = 1 N [ y i log π ( x i ) 1 − π ( x i ) + log ( 1 − π ( x i ) ) ] = ∑ i = 1 N [ y i ( w ⋅ x i ) − log ( 1 + e x p ( w ⋅ x i ) ) ]

L(w) L ( w ) 求极大值,即问题转变为以对数似然函数为目标函数的最优化问题,通常采用梯度下降法或拟牛顿法可得到 w w 的估计值w^ ,则学习到的逻辑斯谛回归模型为

P(Y=1|x)=exp(w^x)1+exp(w^x) P ( Y = 1 | x ) = e x p ( w ^ ⋅ x ) 1 + e x p ( w ^ ⋅ x )

P(Y=0|x)=11+exp(w^x) P ( Y = 0 | x ) = 1 1 + e x p ( w ^ ⋅ x )

结论

应用场景:
二分类问题:
邮件:垃圾邮件/非垃圾邮件
在线交易:是否欺诈(是/否)
肿瘤:恶性/良性

多分类问题:
电子邮件分类/标注: 工作邮件,朋友邮件,家庭邮件,爱好邮件
医疗图表(medical diagrams): 没有生病,着凉,流感
天气:晴天,多云,雨,雪

logistic回归一般用于类别之前有联系的多分类问题
类别之间互斥则一般选择softmax回归

优点:
1.实现简单
2.分类时计算量非常小,速度很快,存储资源低;

缺点:
1.容易欠拟合,一般准确度不太高
2.必须线性可分;

参考资料

Coursera公开课笔记: 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)”
统计学习方法,李航著,清华大学出版社

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值