机器学习与数据挖掘之逻辑斯谛回归

参考文献:机器学习与数据挖掘参考文献


一、二项逻辑斯谛回归模型

二项逻辑斯谛回归模型是如下的条件概率分布:



这里,x∈Rn是输入,Y∈{0,1}是输出,w∈Rn和b∈R是参数,w称为权值向量,b称为偏置,w·x为w和x的内积。有时为了方便,将权值向量和输入向量加以扩充,仍记作w,x,即w=(w(1),w(2),...,w(n),b)T,x=(x(1),x(2),...,x(n),1)T。这时,逻辑斯谛回归模型如下:



一个事件的几率是指该事件发生的概率与该事件不发生的概率的比值。如果事件发生的概率是p,那么该事件的几率是p/(1-p),该事件的对数几率或logit函数是


对逻辑斯谛回归而言,由上式得


这就是说,在逻辑斯谛回归模型中,输出Y=1的对数几率是输入x的线性模型。或者说,输出Y=1的对数几率是输入x的线性函数表示的模型,即逻辑斯谛回归模型。线性函数的值越接近正无穷,P(Y=1|x)的概率值就越接近1;线性函数的值越接近负无穷,概率值就越接近0。

二、模型参数估计

逻辑斯谛回归模型学习时,对于给定的训练数据集,可以应用极大似然估计法估计模型参数,从而得到逻辑斯谛回归模型。

设P(Y=1|x)=π(x),P(Y=0|x)=1-π(x),似然函数为


对数似然函数为


对L(w)求极大值,得到w的估计值。

这样,问题就变成了以对数似然函数为目标函数的最优化问题。逻辑斯谛回归学习中通常采用的方法是梯度下降法及拟牛顿法。

三、多项逻辑斯谛回归

假设离散型随机变量Y的取值集合是{1,2,...,K},那么多项逻辑斯谛回归模型是



这里,x∈Rn+1,wkRn+1

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值