线性回归的损失函数与逻辑回归的损失函数

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/wjlucc/article/details/71095206

一、线性回归损失函数的两种解释

线性回归的损失函数是平方损失函数,为什么使用平方的形式,参考:线性回归损失函数为什么要用平方形式,讲得很清楚。
在线性回归中,对于训练数据样本(xi,yi),我们有如下的拟合直线:

yiˆ=θxi

构建的损失函数是:
C=i=1n(yiyiˆ)2

表示每一个训练点(xi,yi)到拟合直线yiˆ=θxi的竖直距离的平方和,通过最小化上面的损失函数可以求得拟合直线的最佳参数θ
这里的损失函数之所以使用平方形式,是使用了“最小二乘法”的思想,这里的“二乘”指的是用平方来度量观测点与估计点的距离(远近),“最小”指的是参数值要保证各个观测点与估计点的距离的平方和达到最小。
第二种解释是 极大似然估计误差的思想,暂时没搞明白,先保留。参考:http://blog.csdn.net/saltriver/article/details/57544704

二、逻辑回归的损失函数

逻辑回归的损失函数使用的是对数损失函数,而不是平方损失函数。平方损失函数是线性回归在假设样本满足高斯分布的条件下推导得到的,而逻辑回归假设样本服从伯努力分布(0-1分布)
伯努利分布的概率质量函数pmf为:

P(X=n)={p1p,n=1,n=0

1.对数损失函数的形式

L(Y,P(Y|X))=logP(Y|X)这个对数损失函数的意思是指分类为Y的情况下,使P(Y|X)达到最大。若模型是用最大概率的分类来做预测的,而Y是代表分类为正确的分类,而P(Y|X)则是代表正确分类的概率,那对数取反就是P(Y|X)越大,损失函数就越小。P(Y|X)=1时,损失就降为0,不可能再低了。
伯努利分布的似然函数可以写成:

L(θ)=i=1mP(y=1|xi)yiP(y=0|xi)1yi

对数似然函数为:
logL(θ)=i=1m[yilogP(y=1|xi)+(1yi)log(1P(y=1|xi))]

其中的一项即为对数损失,在逻辑回归中可表示为:
L(Y,P(Y|X))=logP(Y|X)=yilogP(Y|X)+(1yi)log(1P(Y|X))

其中 P(Y|X)=P(y=1|x)
损失函数的图像如下所示
这里写图片描述

2.直接根据对数损失函数的形式得到目标函数

逻辑回归P(Y=y|x)表达式如下,符合伯努利分布:

P(X=y|x)=hθ(x)=g(f(x))=11+exp(f(x))1hθ(x)=1g(f(x))=exp(f(x))1+exp(f(x)),y=1,y=0

对数损失函数的标准形式为:
L(Y,P(Y|X))=log(Y|X)

将逻辑回归的表达式带入对数损失函数中,可以得到:
L(y,P(Y=y|X))={log(hθ(x))log(1hθ(x)),y=1,y=0

将上式进行化简,可以得到最终的目标函数:
J(θ)=1mi=1m[yilog(hθ(xi))+(1yi)log(1hθ(xi))]

参考:
https://www.zhihu.com/question/27126057
http://blog.csdn.net/saltriver/article/details/63683092
http://blog.csdn.net/saltriver/article/details/57544704

展开阅读全文

没有更多推荐了,返回首页