逻辑回归为什么使用对数损失函数

在前面介绍的《逻辑回归是个什么逻辑》中,我们构建的逻辑回归模型是:

P(y=1|x;θ)=11+eθTx

在模型的数学形式确定后,剩下的就是如何去求解模型中的参数 θ 。而在已知模型和一定样本的情况下,估计模型的参数,在统计学中常用的是极大似然估计方法。即找到一组参数 θ ,使得在这组参数下,样本数据的似然度(概率)最大。对于极大似然估计,可以参考下前期文章《 极大似然估计》。

对于逻辑回归模型,假定的概率分布是伯努利分布,根据伯努利分布的定义,其概率质量函数PMF为:

P(X=n)={1pn=0pn=1

所以,似然函数可以写成:
L(θ)=i=1mP(y=1|xi)yiP(y=0|xi)1yi

对数似然函数则为:
lnL(θ)=i=1m[yilnP(y=1|xi)+(1yi)lnP(y=0|xi)]

lnL(θ)=i=1m[yilnP(y=1|xi)+(1yi)ln(1P(y=1|xi))]

而在机器学习领域,我们经常使用损失函数(loss function,或称为代价函数,cost function)来衡量模型预测的好坏。常用的有0-1损失,平方损失,绝对损失,对数损失等。其中对数损失在单个数据点上的定义为:
cost(y,p(y|x))=ylnp(y|x)(1y)ln(1p(y|x))

全体样本的损失函数则可表达为:
cost(y,p(y|x))=i=1m[yilnp(yi|xi)+(1yi)ln(1p(yi|xi))]

可以看到,这个对数损失函数与上面的极大似然估计的对数似然函数本质上是等价的。所以逻辑回归直接采用对数损失函数来求参数,实际上与采用极大似然估计来求参数是一致的。

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值