逻辑回归(Logistic Regression)

  趁着现在有空再写一篇吧,以后忙起来可能就更新得慢了。
  前面我们讨论了回归问题,下面我们来说一说分类问题。

Logistic function

  先从最简单的二值分类(binary classification)问题说起,也就是说y只能取1或者0两个值,其中,0称为负类别(negative class),1称为正类别(positive class),也可以分别用“-”号和“+”号表示。
  如果我们任性一点,忽略y是离散值的事实,直接用线性回归来预测,我们会发现一些问题。最直观的就是,如果模型的预测值大于1或小于0将会没有意义,因为y只能取1和0两个值。
  于是我们想,能不能找一个函数,它的输出值就在0和1之间呢?的确可以。我们可以选择

hθ(x)=g(θTx)=11+eθTx,

这里 g(z)=11+ez 被称为 logistic function或者叫 sigmoid function,它的函数图像是这样的:
这里写图片描述
当z趋近于正无穷时函数值趋近于1,当z趋近于负无穷时函数值趋近于0。
  我们可能要问了,函数值在0和1之间的函数肯定不止这一个,我们选别的行不行?当然可以,但logistic function有很多好处,这在后面我们会慢慢体会到。我们先来推一遍它的导数:
这里写图片描述
OK,有了它的导数,在后面的计算中我们就可以直接拿来用啦。

参数学习

  现在我们有了这个模型,就可以考虑怎么通过训练样本学习出参数 θ 了。很自然的,我们的第一个想法就是和线性回归一样,令它的代价函数为 J(θ)=12mi=1(hθ(x(i))y(i))2 ,然后最小化J。但很不幸,上次我们的代价函数一猜就中,这次可没那么好运咯,哪儿能回回都给你蒙对呢是吧,哈哈。为什么不行呢?还记得我们之前提到过的局部最小值的问题吗?对于logistic function,这样的代价函数是非凸的,存在多个局部极小值,所以它并不是一个好的选择。那怎么办呢?我们不是曾从概率角度解释了线性回归的代价函数么?(不知道的同学请看这里)可不可以参考这个思路呢?那我们就来试一试吧。
首先我们假设:
这里写图片描述
  这个很合理吧。我们还可以把它写得更紧凑一点:
这里写图片描述
  如果m个训练样本是相互独立的,那么似然函数依然是单个样本的乘积:这里写图片描述
  和前面一样,我们选择最大化对数似然函数:
这里写图片描述
  那我们怎么最大化它呢?你又一次站在了山坡上,不过这次你不是去谷底了,你要征服高山,你要上山顶了。所以,我们还是要沿着高度变化最快的方向走,不过这次是沿着梯度的方向,而不是梯度的反方向了。好,那我们就来求它的偏微分吧,我们直接采用stochastic gradient ascent(注意,这里是梯度上升啦),也就是每次更新时只考虑一个样本:
这里写图片描述
  在上式中,我们直接使用了g(z)的导数,也就是前面推过的结论。因此我们的更新规则就是:
这里写图片描述
  诶?有没有发现什么?这个式子怎么长得和LMS更新规则那么像?的确是,但它们并不是同样的算法,因为这里的h已经是 θTx(i) 的一个非线性函数了。但为什么我们用了不同的算法却得到了相似的更新规则呢?这是巧合吗?听说不是,后面我们再一起研究吧!^_^

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Logistic回归是一种逻辑回归方法。它是一种特殊的回归方法,用于对于分类问题中的因变量建立预测模型。这种方法基于学习一个由输入变量到二元输出变量的条件概率来构建预测模型,用于对一个新的样本进行分类。它对于分类问题中的因变量建立预测模型非常有效。 ### 回答2: 逻辑回归是一种用于解决二分类问题的监督学习算法。它是一种基于概率统计的分类模型,可以用于预测分类结果。逻辑回归的输出结果是一个0到1之间的概率值,其含义是该样本属于某一类别的概率。 逻辑回归模型的基本假设是数据服从伯努利分布,也就是数据只有两种可能的取值,被称为正类和负类。对于给定的训练数据集,逻辑回归模型的目标是最大化似然函数,即最大化样本属于正类(或负类)的概率。利用最大似然估计方法,我们可以求解出逻辑回归模型的参数。在实际应用中,我们通常使用梯度下降等优化算法来求解模型参数。 逻辑回归模型有多种变体,如L1正则化逻辑回归、L2正则化逻辑回归、多项式逻辑回归等。其中,L1正则化逻辑回归可以实现特征选择,可以削减一些不重要的特征,从而简化模型,提高计算速度和模型的泛化能力。 在机器学习领域,逻辑回归是一个常用的模型。它广泛应用于各种领域,如网络广告点击率预测、信用风险评估、医疗诊断等。逻辑回归模型简单易实现,具有较高的解释性,是一个较为理想的分类算法。 ### 回答3: 逻辑回归Logistic Regression)是一种经典的分类算法,在机器学习和统计学领域中得到广泛的应用。它旨在从已有的数据中构建一个能够预测类别的模型,输出结果为概率值,可以用于二分类或多分类问题的解决。 逻辑回归的基本原理是利用一个特定的函数对输入特征进行线性组合,然后将结果输入到一个Sigmoid函数中进行映射,将结果值压缩到0到1的范围内,表示输入属于某一类别的概率。这个Sigmoid函数可以被看作是一个阀门,控制着数据流向最终输出。它将具有很强预测能力的线性组合函数输出转化为概率输出的过程,将出现在中间层的结果值映射到[0,1]范围内,以表达某个样本属于某个类别的概率。 在训练模型时,逻辑回归使用的是最大似然估计的方法来确定模型的参数。在分类训练数据时,需要对样本经过一系列的处理,例如特征提取、特征转换、数据归一化等步骤。训练数据可以通过梯度下降法、牛顿迭代法等优化方法来确定最佳参数。通过此训练过程,模型可以学习到输入特征与输出概率之间的映射关系。 逻辑回归的优点包括了功能简单、速度快、易于实现和修改等等。它是机器学习中最为基本的分类算法之一,在数据挖掘、信用评估、自然语言处理、广告推荐等领域都有广泛的应用。逻辑回归作为一个二分类算法,常被用于解决分类问题。然而,在实际业务中,如何选择不同的逻辑回归模型及参数,对算法的效果和优化有着重要的影响。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值