【机器学习】Logistic回归的梯度上升法

本文介绍了Logistic回归在解决二元分类问题中的应用,对比了线性回归的不足,并详细阐述了Logistic函数(sigmoid函数)的作用。通过最大似然估计和梯度上升法求解最佳回归系数,给出了Matlab和Python的实现代码,展示了良好的分类效果。
摘要由CSDN通过智能技术生成
                       

一、问题引入
    对于目标值是连续变量的问题来说,使用线性回归可能会解决得很好,即使问题不能用线性模型描述时,也可以使用局部加权线性回归解决。但现实生活中有一种问题,输出值只有两种情况:yes or no.这类问题常见有:电子邮箱中的垃圾邮件分类(spam or not spam),肿瘤为良性或者恶性等。在这些问题中,我们想预测的变量y,可以统一认为它只能取两个值0或1,这种问题叫分类(classification)问题,但只是最简单的二元分类问题,多类的问题待以后学习中讨论。如果我们尝试用线性回归来解决此类问题,碰巧的话,有时可能会解决得好,如图中粉红色线
这里写图片描述
但是如果出现了一个很远的样本点,训练出来的模型可能就变成蓝色线的样子。此时很明显分类的效果就很差。因此,应用线性回归来解决分类问题并不是一个好的想法。此时,我们便需要一种新的模型——logistic回归来解决分类问题。

二、问题分析
    对于输出值y∈{0, 1}的两类分类问题,我们作出一个假设:
这里写图片描述
这里写图片描述
函数g被称为logistic函数或sigmoid函数,至于为什么选择会选择这个函数,以后会涉及这个问题,暂时不深究。这个函数的图像是:
这里写图片描述
看起来有点像单位阶跃函数。根据这个函数,大于0.5的数据被划入1类,小于0.5的数据被归为0类。
有了这个函数,对于一个样本,我们可以得到它的概率分布:
这里写图片描述这里写图片描述
综合起来就是:
这里写图片描述
此公式便为伯努利分布,这里的y∈{0, 1}.
现在我们就可以把问题转化为求logistic回归的最佳回归系数。由于logistic回归可以被看作是一种概率模型,且输出y发生的概率与回归参数θ有关,因此我们可以对θ进行最大似然估计(Maximum Likelihood Estimate),使得y发生的概率最大,此时的θ便是最优的回归系数。对整个数据集求似然函数得:
这里写图片描述
为了计算方便,取似然函数的对数函数:
这里写图片描述
对上式运用梯度上升法,得到θ的迭代式:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值