ML(三) 线性模型3.3

这篇笔记介绍了对数几率回归模型,它是线性分类模型的一种,通过sigmoid函数实现分类。对数几率回归不仅预测类别,还能给出概率预测,模型采用极大似然估计策略,可以通过梯度下降或牛顿法优化。它在处理分类问题时,避免了对数据分布的假设,并能有效求解最优解。
摘要由CSDN通过智能技术生成

3.3 对数几率回归

笔记部分

在这里插入图片描述


线性分类模型

单调阶跃函数(unit-step function) Heaviside函数

不连续、不可微,若预测值大于零就判为正例,小于零则判为反例,预测值为临界值则可任意判别。
在这里插入图片描述

sigmoid函数——对数几率函数(logistic function)

sigmoid函数是形似S的函数。

对数几率函数是sigmoid函数的一种,单调可微,其表达式为:

与单调阶跃函数的图示关系如下图所示:
在这里插入图片描述

几率和对数几率

若将 y y y视为样本作为正例的可能性,则 1 − y 1-y 1y是其反例可能性,两者的比值 y 1 − y \frac{y}{1-y} 1yy称为几率(odds),反映了 x \mathbf x x作为正例的相对可能性.对几率取对数则得到”对数几率”(log odds,亦称logit): ln ⁡ y 1 − y \ln\frac{y}{1-y} ln1yy


对数几率回归模型(线性分类模型)

模型

原理
线性分类模型是在线性模型的基础上套一个映射函数来实现分类功能。即,将 z = w T x + b z=\mathbf w^T\mathbf x+b z=wTx+b带入对数几率函数中,得到:

其对应的模型称为”对数几率回归”(logistic regression,亦称logit regression)(虽叫回归但实际是分类方法)。

带入 ln ⁡ y 1 − y \ln\frac{y}{1-y} ln1yy中可得: ln ⁡ y 1 − y = w T x + b \ln\frac{y}{1-y}={\mathbf w^T}\mathbf x+b ln1yy=wTx+b,即,利用线性回归模型的预测结果去逼近真实标记的对数几率。

对数几率回归模型对应到机器学习三要素中分别为:

  • 模型:线性模型,输出值范围为[0,1],近似阶跃的单调可微函数 y = 1 1 + e − ( w T x + b ) y=\frac{1}{1+e^{-(\mathbf w^T\mathbf x+b)}} y=1+e(wTx+b)1
  • 策略:极大似然估计,信息论。
  • 算法:梯度下降法,牛顿法。

优势

  • 直接对分类可能性进行建模,无需事先假设数据分布,避免了假设分布不准确所带来的问题;
  • 不是仅预测出”类别”,而是可得到近似概率预测,这对许多需利用概率辅助决策的任务很有用;
  • 对率函数是任意阶可导的凸函数,现有的许多数值优化算法都可直接用于求取最优解。

策略——构建loss function

极大似然估计
在这里插入图片描述
在这里插入图片描述
信息论
在这里插入图片描述
在这里插入图片描述

算法——求解参数

上面推导的loss function是关于 β β β的高阶可导连续凸函数,根据凸优化理论,经典的数值优化算法如梯度下降法(gradient descent method)、牛顿法(Newton method)等都可求得其最优解。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值