对数几率回归

本文损失函数部分内容参考:http://www.cnblogs.com/fionacai/p/5865480.html

目的:

利用线性回归时,输出的是实值,但要做的是分类任务该怎么办,答案就是线性模型的广义线性回归,即找到一个单调可微的函数将分类任务的真实标记和线性回归的预测值联系起来。

如是二分类任务,其输出标记为,而线性回归的预测值为实值,我们需将实值转为0/1值,我们必然想到单位阶跃函数(unit-step function),若大于0就判为正例,小于0则判为反例,预测值为临界值为0则可任意判别。但是,单位阶跃函数不连续,因此找到近似单位阶跃函数的“替代函数”,因此我们采用对数几率函数(logistic function):

        (1

该函数又叫作Sigmoid 函数。

方法:

代入公式(1),则可得到,该式可变化为 (2),若将视为样本为正例的可能性,则是其反例可能性,两者的比值:
称为“几率”(odds),反映了作为正例的相对可能性。对几率取对数则得到对数几率(log odds)
由此可以看出,实际上我们是用线性回归模型的预测结果去逼近真实标记的对数几率,因此该模型成为“对数几率
回归”(logistic regression)。需要注意的是,虽然名字为回归,其实是一种分类学习方法。
得到表达式后,接下来要做的就是如何得到。我们将视为类后验概率估计, 则表达式(2)可以
表达为:
(3)
显然有
(4)
(5)
因此,我们可以通过“极大似然法”(maximum likelihood function)估计。对数几率回归模型的最大化“对数
似然”
(6)
即令每个样本属于其真实标记的概率越大越好,为便于讨论,令
可简写为,则(下式中的为sigmoid函数,因为利用极大似然推到较为麻烦,因此这里直接利
用损失函数,损失函数是利用极大似然准则函数推导的,,具体的推导求解过程可参见博客
http://blog.csdn.net/suipingsp/article/details/41822313 另一种较为好理解的方式是,如果Y=1,你胆敢给出一个h(x)很小的概率比
如0.01,那么损失函数就会变得很大:
此时的损失函数变成了凸函数,Theta的求解,就是梯度下降法(Gradient Descent,GD)求最小值,此时加入的正则化项,是解决过拟合问题。
(过拟合问题:如果我们的模型有非常多的特征,模型很复杂,模型对原始数据的拟合效果很好,但是丧失一般性,对新的待预测变量预测
效果很差。怎么解决呢?限制参数,损失函数加上关于theta的限制,即如果theta太多太大,则就给予惩罚。L2正则化。)
则参数的利用GD进行迭代求最优值为

该公式将一直被迭代执行,直至达到收敛()在每一步迭代中都减小,如果某一步减少的值少于某个很小的值()(小于0.001),

 则其判定收敛)或某个停止条件为止(比如迭代次数达到某个指定值或算法达到某个可以允许的误差范围)。 转换为向量的处理方法同样可

参见上文博客:http://blog.csdn.net/suipingsp/article/details/41822313

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

勤劳的凌菲

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值