逻辑回归与最大熵模型

更多机器学习方法总结请到我这个机器学习全面总结

7 逻辑回归与最大熵模型

     逻辑斯谛回归(logistic regression,LR)是统计学习中的经典分类方法。最大熵是概率模型学习的一个准则,将其推广到分类问题得到最大熵模型(maximum entropy model)。本章首先介绍逻辑斯谛回归模型,然后介绍最大熵模型,最后讲述逻辑斯谛回归与最大熵模型的学习算法,包括改进的迭代尺度算法和拟牛顿法。

二者共处:

  • 逻辑斯谛回归模型与最大熵模型都属于对数线性模型
  • 逻辑斯谛回归模型及最大熵模型学习一般采用极大似然估计,或正则化的极大似然估计。
  • 逻辑斯谛回归模型及最大熵模型学习可以形式化为无约束最优化问题。求解该最优化问题的算法有改进的迭代尺度法、梯度下降法、拟牛顿法。

7.1 逻辑斯蒂回归(logistic regression )

     逻辑回归是一种广义的线性模型,虽然由回归二字,但确实经典的分类模型。通过对数概率函数将线性函数的结果进行映射,目标空间从(-无穷,+无穷)映射到了(0,1),从而可以处理分类问题。

7.1.0 和线性回归比较

     线性回归在训练时在整个整数域对异常点的敏感性是一致的(见下图),因此一般不适用于处理分类问题。因此采用对数概率函数将线性函数的结果进行(0,1)映射,转换成概率输出。

在这里插入图片描述

7.1.1 logistic 分布

1、 定义
     X服从logistic分布是指有以下的分布函数和密度函数

在这里插入图片描述
     其中,分布函数以(u,1/2)中心对称,且有:

在这里插入图片描述
      曲线特性:曲线在中心附近增长速度较快,在两端增长速度较慢。形状参数r的值越小,曲线在中心附近增长得越快。

     特殊的:
在这里插入图片描述

7.1.2 二项逻辑斯谛回归模型

在这里插入图片描述
在这里插入图片描述
为了方便,w和x记作:
在这里插入图片描述
这时,逻辑斯谛回归模型如下:
在这里插入图片描述

事件的几率:事件发生的概率与不发生的概率比值p/1-p。则该事件的对数几率(logit 函数):
在这里插入图片描述
由上面三个公式得到:
在这里插入图片描述
说明在逻辑斯蒂回归中,输出Y=1的对数几率是输入X的线性模型,此即logistic regression 模型。

7.1.3 模型参数估计

设:
在这里插入图片描述
构造的似然函数为:
在这里插入图片描述
对数似然函数:
在这里插入图片描述
     通过对L(w)取极大值,得到w的估计值。如果对数似然函数乘以-1/N,则转换为了一个极小值模型。
     通过最速下降法和拟牛顿法可以得到w的极大似然估计值,那么学习到的逻辑斯蒂回归模型为:

在这里插入图片描述
以上是解决二分类的逻辑斯蒂模型,可以推广到多项逻辑斯蒂回归模型。

在这里插入图片描述

7.1.4 逻辑回归模型优缺点

  1. 优点
    • 处理速度快,容易并行计算,是用于学习大规模训练的样本和特征
    • 在工业界得到了广泛的应用
  2. 缺点
    • 需要大量的特征组合和离散来增强特征的表达性
    • 模型表达能力弱
    • 容易欠拟合

7.2 最大熵模型(MEM)

     最大熵模型(maximum entropy model)由最大熵原理推导实现。首先叙述最大熵原理,然后最大熵模型的推导,最后给出最大熵模型学习的形式。

7.2.1 最大熵原理

     学习概率模型中,所有可能的概率模型里面,熵最大的概率模型是最好的模型。最大熵原理也可以表述为在满足约束条件的模型集合中选取熵最大的模型。

7.2.2 最大熵模型定义

在这里插入图片描述在这里插入图片描述
也就有n个约束条件。

最大熵模型定义:

在这里插入图片描述

7.2.3 最大熵模型的学习

     转换成最优化问题的求解问题,这里详细介绍了拉格朗日对偶问题求解

     学习过程等价于优化问题的求解
在这里插入图片描述
进一步,可以将带约束的优化问题转换为无约束的对偶问题,通过对偶问题求解原问题。
在这里插入图片描述在这里插入图片描述在这里插入图片描述
在这里插入图片描述

7.2.4 对偶函数的极大化等价于最大熵模型的极大似然估计

。。。。看着有点难推导了

     总之,最大熵模型的学习问题就转换为具体求解对数似然函数极大化或对偶函数极大化的问题。

     可以得到更一般形式的最大熵模型
在这里插入图片描述
其中:
在这里插入图片描述
     总之,最大熵模型与逻辑斯谛回归模型有类似的形式,它们又称为对数线性模型(log linearmodel)。模型学习就是在给定的训练数据条件下对模型进行极大似然估计或正则化的极大似然估计。

7.3 模型学习的最优化方法

     逻辑斯谛回归模型、最大熵模型学习归结为以似然函数为目标函数的最优化问题,通常通过迭代算法求解。从最优化的观点看,这时的目标函数具有很好的性质。它是光滑的凸函数,因此多种最优化的方法都适用,保证能找到全局最优解。常用的方法有改进的迭代尺度法、梯度下降法、牛顿法或拟牛顿法。牛顿法或拟牛顿法一般收敛速度更快。

7.3.1 改进的迭代尺度法(improved iterative scaling,IIS)

在这里插入图片描述
算法流程:
在这里插入图片描述

7.3.2 牛顿法

1、牛顿法定义
主要用在以下问题中:

     a)求方程的根(函数比较复杂,没有求根公式)。

     b)应用于最优化方法求解无约束问题的最优解(通常是求函数的极大极小值)

在求解无约束问题的最优解中,我们从二维和高维的情况下来学习牛顿迭代法

  • 二维情况
    在这里插入图片描述
  • 高维情况,牛顿迭代公式为:
    在这里插入图片描述
    其中,海森矩阵的定义:
    在这里插入图片描述

在本问题中,
在这里插入图片描述

2、牛顿迭代法流程:
在这里插入图片描述
缺点是:Hessian矩阵引入的复杂性,使得牛顿迭代求解的难度大大增加。于是有了拟牛顿法。

7.3.3 拟牛顿法(DFP,BFGS,Broyden类算法)

参考自 拟牛顿法详细介绍,更多详情链接内查看。

1、基本思想
在这里插入图片描述
2、拟牛顿条件:
在这里插入图片描述

3、Broyden算法

     在每次更新中可以选择更新矩阵,这种选择具有一定的灵活性,由多种具体实现算法,下面介绍Broyden类拟牛顿算法。
在这里插入图片描述

4、 最大熵模型的学习方法——拟牛顿法

在这里插入图片描述
算法流程:

在这里插入图片描述在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Weiyaner

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值