白话机器学习-逻辑斯蒂回归-理论篇

白话机器学习-逻辑斯蒂回归-理论篇

@(2018年例会)


概述

前面讲述了线性回归,线性回归的模型 y=wT+b 。模型的预测值逼近真实标记y。那么可否令模型的预测值逼近真实标记y的衍生物呢。比如说模型的预测值逼近真实标记的对数函数。下面引入逻辑回归的知识。

转换函数

我们需要一个单调可微函数将分类任务的真实标记y与线性回归模型的预测值联系起来,所以需要一个转换函数将线性模型的值与实际的预测值关联起来。
考虑二分类问题,其输出标记是y属于{0,1},而线性模型产生的预测值是 z=wT+b 是实值,那么我们需要将这个实值转化成0/1值,最理想的函数是单位阶跃函数。

单位阶跃函数

单位阶跃函数(unit-step function),如下图,如果预测值大于零则判断为正例;如果预测值小于零则判断为反例;为零的则任意判断。如下图所示。
enter image description here

y=00.51if z < 0if z = 0if z > 0

sigmoid function

从图中可以看出,单位阶跃函数不连续因此不适合用来计算。这里我们引入sigmoid函数,进行计算。

y=11+ez

将z值转化为一个接近0或1的y值,并且其输出值在z=0的附近变化很陡。那么我们现在的模型变化成

y=11+e(wT+b)

enter image description here

几率与对数几率

几率:如果将y作为正例的可能性,1-y作为负例的可能性,那么两者的比值 y1y 称为几率,反应了x作为正例的相对可能性。则根据sigmoid函数可得。

lny1y=wT+b

lny1y 称为对数几率;

由此可以看出, y=11+e(wT+b) 实际上是用线性模型的预测结果去逼近真实标记的对数几率,因此,其对应的模型称为“对数几率回归”

下面介绍损失函数以及计算方法。

损失函数

因为: lny1y=wT+b 。所以

p(y=1|x)=e(wT+b)1+e(wT+b)

p(y=0|x)=11+e(wT+b)

我们采用极大似然估计法进行求解,由于是二分类问题,所以符合概率里面的0-1分布,所以似然函数为
p(y=1|x)=e(wT+b)1+e(wT+b)=f(x) p(y=0|x)=11+e(wT+b)=1f(x)

L(w)=i=1n[f(xi)]yi[1f(xi)]1yi

对数似然函数为:

l(w)=lnL(w)=i=1n[yilnf(xi)+(1yi)ln(1f(xi))]

l(w)=lnL(w)=i=1n[yilnf(xi)1f(xi)+ln(1f(xi))]

l(w)=lnL(w)=i=1n[yi(wxi)ln(1+ewxi)]

求这个函数的最大值,加个负号,求最小值。运用前面章节介绍的梯度下降和牛顿法都可以求解,这里不再赘述。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值