统计学习方法(五)Logistic回归与最大熵模型

5 Logistic回归与最大熵模型

5.1 logistic回归模型

事件的几率是指该事件发生的概率与不发生的概率的比值。
在 logistic回归模型中,输出Y的对数几率是输入X的线性函数。
通过模型可将线性函数转换为概率,线性函数的值越接近正无穷,概率值越接近1,线性函数的值越接近负无穷,概率值越接近0。

可以应用极大似然估计法估计模型参数,从而得到回归模型,得到w的估计。这样,问题就变成了以对数似然函数为目标函数的最优化问题。学习中常用的方法是梯度下降法及牛顿法。
可以从二项分类推广到多项回归模型。

5.2 最大熵模型

最大熵模型是由最大熵原理推导实现的。
最大熵原理认为,学习概率模型时,在所有可能的概率模型分布中,熵最大的模型是最好的模型。
最大熵模型时所有满足约束条件的模型中条件熵最大的模型。

最大熵模型的学习过程就是求解最大熵模型的过程。最大熵模型的学习可以形式化为约束最优化问题。

5.3 模型学习的最优化算法

logistic回归模型、最大熵模型学习归结为以似然函数为目标函数的最优化问题,通常通过迭代算法求解。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值