[学习笔记]分类算法之logistic 回归模型

本文详细介绍了Logistic回归模型,包括模型参数估计、二分类及多类别回归模型的构建,并探讨了模型选择Logistic函数的原因。通过极大似然估计法求解模型参数,并讨论了梯度下降和牛顿法在参数估计中的应用。此外,文章提出了多类别回归模型的计算方法及一些未解疑问。
摘要由CSDN通过智能技术生成

from: http://www.hxxiaopei.com/?p=117

logistic regression是统计学习中经典的分类算法,属于对数线性模型。

回归模型:

给定一个数据集合 (x1,y1)(x2,y2)...(xn,yn) ,有监督学习构建模型,学习过程就是模型参数 θ 的学习过程。作为discrimination algorithm,对  P(Y|X;θ ) 建模,

针对二分类问题,我们选择logitic 分布来描述P(Y|X)的分布, g(x)=ex1+ex ,,这样logistic回归模型服从下面的条件概率:

P(y=1|x)=eθTx1+eθTx

P(y=0|x)=1(P(y=1|x)=11+eθTx

在预测时,给定Input value x,分别计算 P(y=1|x),P(y=0|x) ,x属于概率大的那个类别。

关于为什么选择logistic函数,我理解(参考斯坦福视频 Ng的说法):

1.logistic函数形式比较简单,处理起来也比较简单

2.生成模型可以得到判别模型(反过来不成立),生成模型首先对数据建模,假设模型服从F(x)分布,也就是数据可以有F(x)生成,那么F(x)是二项分布、 γ 分布、gaussian分布等,对应的判别模型都是logistic分布(神奇,不过这个过程还不是很了解,需要对generative model和discriminative model进一步了解),而判别模型是不考虑数据分布的,所以选择logistic分布大多数情况下都是对的。

模型参数估计:

定义模型后,需要基于DataSet学习模型参数,也就是 θ ,使得数据的概率最大,我们可以用极大似然估计法估计模型参数。

为了方便计算,定义:

p(y=1|x;θ)=π(x),p(y=0|x;θ)=1π(x)

则有:

p(y|x;θ)=π(x)y=1(1π(x))y=0

定义参数的似然函数  L(θ)=P(Y|X;θ)=Ni=1p(yi|xi;θ)

对数似然函数:

l(θ) =Ni=1lnp(yi|xi;θ)

=Ni=1ln(π(xi)

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值