机器学习入门-吃瓜第三章--对数几率回归

 

目录

3.3 对数几率回归


接上节 机器学习入门-吃瓜第三章--线性回归 

3.3 对数几率回归

在上一节中使用线性模型进行回归学习,如果要做分类任务,则需找一个单调函数将分类任务的真实标记y与线性回归模型的预测值联系起来。

首先我们考虑一个简单的分类任务,其y值仅包含两个值0和1,即y\in \left \{ 0,1 \right \},由于线性回归产生的 z=w^{T}x+b是连续值,所以我们需要将连续值转换为0和1,最理想的函数就是单位阶跃函数。

如果线性回归的z值为正,则分类为1;如果线性回归的z值为负,则分类为0;如果z值为0,则分类任意判别。

但单位阶跃函数的缺点是不连续,所以很不方便,因此我们需要找到一个单调可微的性质和单位阶跃函数类似的函数。对数几率函数就是一个常见的替代函数。 

对数几率函数如下图所示:

将线性回归中的因变量带入对数几率函数中的自变量,即

上式变换,即

若将y视作样本值为正例的可能性,那么1-y就是其为反例的可能性,两者的比值即为\frac{y}{1-y}
​,称为几率,反映了样本为正例的相对可能性,对其取对数就称为对数几率。

接下来需要确定w和b,将y视作为正例的可能性,变换得:

由于y仅有两种情况0和1,因此

使用极大似然法对w和b进行估计(其思想为:已知某个参数能使得这个样本出现的概率最大,那么我们就将这个参数作为估计的真实值)

 

令 \beta =(w;b),\hat{x}=(x;1),那么w^{T}+b 可以简写为\beta ^T\hat{x};令

  似然项可改写为

可以看到,当y_{i}=1时,式子为p_{1}\left ( \check{x} ;\beta \right );当y_{i}=0时,式子为p_{0}\left ( \check{x} ;\beta \right )
只要使得这个式子组合的所有样本的函数最大,即可找到最优的w和b值.

 由于y_{i}=0 或1,则

两式综合可得


由于此式仍为极大似然估计的似然函数,所以最大化似然函数等价于最小化似然函数的相反数,即在似然函数前添加负号,即
 

  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值