逻辑回归(Logistic Regression)二

目录

一、代价函数

二、梯度下降

三、高级优化(Advanced Optimization)

四、多类别分类(Multiclass Classification)


在分类问题中,如果我们有一组训练集,那么如何根据这个训练集来选择合适的参数θ呢?

在回归问题中我们使用到了代价函数来衡量假设函数与数据集的拟合程度,使用梯度下降算法来找到代价函数的局部最小值从而得到合适的参数θ,而在分类问题中,我们同样使用代价函数梯度下降算法

一、代价函数

对于线性回归模型,我们定义的代价函数J(θ)为:

但是对于逻辑回归模型,我们不能使用上面的代价函数,否则会造成代价函数图像变成下图左方的形式,我们称之为非凸函数(non-convex function)

 注:国外的凸函数定义与国内的相反

这意味着我们的代价函数有多个局部最小值(如上图左边函数图像),使得我们的梯度下降算法很难收敛到全局最小值。所以为了优化我们的代价函数变成上图右边的凸函数形式,我们重新定义代价函数为:

1、当y=1的时候,Cost(hθ(x),y)=−log(hθ(x)),我们得到Cost(hθ(x),y)与hθ(x)的关系图像为:

 

  • 当hθ(x) -> 1时,代价函数趋向于0(代价函数越小代表选取的参数θ越好);
  • 当hθ(x) -> 0时,代价函数趋向于无穷大。

2、当y=0的时候,Cost(hθ(x),y)=−log(1−hθ(x)),我们得到Cost(hθ(x),y)与hθ(x)的关系图像为:

  • 当hθ(x) -> 1时,代价函数趋向于无穷大;
  • 当hθ(x) -> 0时,代价函数趋向于0。

为了简化书写,我们还可以将Cost(hθ(x),y)写成更加简略的形式:

 注:y等于0或1

从而得到简化的代价函数J(θ):

二、梯度下降

和线性回归中梯度下降算法一样,逻辑回归中的梯度下降算法也是要找出让代价函数J(θ)取得最小值的参数θ:

将代价函数的偏导代进公式里可以得到:

 

 可以看到形式基本和我们之前在线性回归里面用到的梯度下降算法几乎一模一样,但这里要注意的是,式子里面的假设函数h(x)变了!!

 推导过程:

其中:

三、高级优化(Advanced Optimization)

除了普通的优化算法梯度下降以外,还有一些更加高级的优化算法,比如说共轭梯度算法(Conjugate Gradient)、局部优化算法(Broyden fletcher goldfarb shann,BFGS)和有限内存局部优化算法(LBFGS)。这三种算法有许多特点,如:

  • 无需手动选择学习率α
  • 收敛速度比梯度下降更快
  • 但比梯度下降算法更加复杂

四、多类别分类(Multiclass Classification)

上面我们使用的例子是两个输出的分类,而当输出有多个的时候,我们会先将多类别问题变成多个二类别问题,然后分别使用二类别的方法求解。下面是一个三类别分类的例子,将例子变成三个二类别问题后再用二类别的方法求解即可,如下图右方所示:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Logistic回归是一种逻辑回归方法。它是一种特殊的回归方法,用于对于分类问题中的因变量建立预测模型。这种方法基于学习一个由输入变量到元输出变量的条件概率来构建预测模型,用于对一个新的样本进行分类。它对于分类问题中的因变量建立预测模型非常有效。 ### 回答2: 逻辑回归是一种用于解决分类问题的监督学习算法。它是一种基于概率统计的分类模型,可以用于预测分类结果。逻辑回归的输出结果是一个0到1之间的概率值,其含义是该样本属于某一类别的概率。 逻辑回归模型的基本假设是数据服从伯努利分布,也就是数据只有两种可能的取值,被称为正类和负类。对于给定的训练数据集,逻辑回归模型的目标是最大化似然函数,即最大化样本属于正类(或负类)的概率。利用最大似然估计方法,我们可以求解出逻辑回归模型的参数。在实际应用中,我们通常使用梯度下降等优化算法来求解模型参数。 逻辑回归模型有多种变体,如L1正则化逻辑回归、L2正则化逻辑回归、多项式逻辑回归等。其中,L1正则化逻辑回归可以实现特征选择,可以削减一些不重要的特征,从而简化模型,提高计算速度和模型的泛化能力。 在机器学习领域,逻辑回归是一个常用的模型。它广泛应用于各种领域,如网络广告点击率预测、信用风险评估、医疗诊断等。逻辑回归模型简单易实现,具有较高的解释性,是一个较为理想的分类算法。 ### 回答3: 逻辑回归Logistic Regression)是一种经典的分类算法,在机器学习和统计学领域中得到广泛的应用。它旨在从已有的数据中构建一个能够预测类别的模型,输出结果为概率值,可以用于分类或多分类问题的解决。 逻辑回归的基本原理是利用一个特定的函数对输入特征进行线性组合,然后将结果输入到一个Sigmoid函数中进行映射,将结果值压缩到0到1的范围内,表示输入属于某一类别的概率。这个Sigmoid函数可以被看作是一个阀门,控制着数据流向最终输出。它将具有很强预测能力的线性组合函数输出转化为概率输出的过程,将出现在中间层的结果值映射到[0,1]范围内,以表达某个样本属于某个类别的概率。 在训练模型时,逻辑回归使用的是最大似然估计的方法来确定模型的参数。在分类训练数据时,需要对样本经过一系列的处理,例如特征提取、特征转换、数据归一化等步骤。训练数据可以通过梯度下降法、牛顿迭代法等优化方法来确定最佳参数。通过此训练过程,模型可以学习到输入特征与输出概率之间的映射关系。 逻辑回归的优点包括了功能简单、速度快、易于实现和修改等等。它是机器学习中最为基本的分类算法之一,在数据挖掘、信用评估、自然语言处理、广告推荐等领域都有广泛的应用。逻辑回归作为一个分类算法,常被用于解决分类问题。然而,在实际业务中,如何选择不同的逻辑回归模型及参数,对算法的效果和优化有着重要的影响。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值