机器学习笔记(5)— 逻辑回归

1.二分类

逻辑回归即分类问题,本文以二分类(将数据及分为两类)为例。主要讲解逻辑回归的数学模型,决策边界以及代价函数,以及逻辑回归与线性回归的关系等。

2.逻辑回归模型

假设逻辑回归的目标函数为:
在这里插入图片描述
其中:
在这里插入图片描述
则目标函数为:
在这里插入图片描述
其图像为:
在这里插入图片描述
假设h_θ (x)≥0.5时预测的y=1, h_θ (x)<0.5时,预测的y=0。
当h_θ (x)≥0.5时,即〖g(θ〗^T x)≥0.5,从图中我们可以看出z>0当时,满足〖g(θ〗^T x)≥0.5。因此,我们知道,当满足:
在这里插入图片描述
预测的值y=1。

3.决策边界

假设目标函数为:
在这里插入图片描述
此时:
在这里插入图片描述
根据前文的结论,若想要y=1,则:
在这里插入图片描述
即:
在这里插入图片描述
即:
在这里插入图片描述
图像如下所示:
在这里插入图片描述
该函数的曲线就是上图中的红线,也被称为决策边界。把整个平面分为两个部分,决策边界是假设函数的一个属性,其取决于假设函数中的参数。

4.代价函数

线性回归中的的代价函数为:
在这里插入图片描述
令:
在这里插入图片描述
则代价函数为:
在这里插入图片描述
代表了代价函数是Cost项在训练集上的求和之后求平均。对于Cost函数的理解为:在预测值为h_θ (x_i ),实际输出为y_i的情况下,算法需要付出的代价。

5.使用Cost的代价函数以及Cost图像

我们使用Cost项画出的代价函数如下图1所示,这是一个非凸函数(机器学习中凹凸函数的定义和高数中的相反),当你使用梯度下降法是会有很多的局部最优解。而我们希望的函数图像如图2所示。
在这里插入图片描述
为解决非凸问题,定义Cost函数为:
在这里插入图片描述在这里插入图片描述

Cost函数图像如下:
在这里插入图片描述

6.简化的代价函数

为了避免把代价函数写成两种情况,同时使代价函数显得更紧凑,把代价函数改为:
在这里插入图片描述
当y=1时:
在这里插入图片描述
当y=0时:
在这里插入图片描述
因此逻辑回归的代价函数为:
在这里插入图片描述

7.逻辑回归与线性回归

逻辑回归与线性回归均属于广义线性回归,在广义线性回归中,若因变量是连续的,就是线性回归,若因变量服从二项分布,就是逻辑回归。线性回归是通过拟合函数目进行预测,逻辑回归通过预测函数分类。
逻辑回归本质上还是线性回归,与现行回归不同的是通过使用sigmoid函数将结果取值范围映射到[0,1]。逻辑回归在线性回归的实数范围输出值上施加sigmoid函数将值收敛到0~1范围, 其目标函数也因此从差平方和函数变为对数损失函数, 以提供最优化所需导数。
线性模型的优化目标函数是最小二乘法,而逻辑回归则是最大似然函数。线性回归在整个实数域范围内进行预测,敏感度一致,而分类范围,需要在[0,1]。逻辑回归就是一种减小预测范围,将预测值限定为[0,1]间的一种回归模型,因而对于这类问题来说,逻辑回归的鲁棒性比线性回归的要好。
逻辑回归的模型本质上是一个线性回归模型,逻辑回归都是以线性回归为理论支持的。但线性回归模型无法做到sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
机器学习中的二分类逻辑回归是一种用于解决二分类问题的算法。它的基本思路是通过构建一个逻辑回归模型,将输入的特征映射到一个概率值,然后根据这个概率值进行分类。 逻辑回归使用sigmoid函数来处理hθ(x),这是因为sigmoid函数的取值范围在0到1之间,可以将线性回归的输出转化为一个概率值。通过sigmoid函数处理后,我们可以将概率值大于等于0.5的样本划分为正类,概率值小于0.5的样本划分为负类。这使得逻辑回归可以用于二分类问题。 代价函数的推导和偏导数的推导是为了求解逻辑回归模型中的参数θ。通过最小化代价函数,我们可以得到最优的参数θ,使得模型的预测结果与真实标签最接近。 在正则化逻辑回归中,我们引入正则化项的目的是为了避免过拟合。正则化项可以惩罚模型中的参数,使得参数的值趋向于较小的数值,从而降低模型的复杂度。在正则化逻辑回归中,一般不对θ1进行正则化,这是因为θ1对应的是截距项,它影响模型在原点的位置,不参与特征的权重调整。 综上所述,机器学习中的二分类逻辑回归是一种通过构建逻辑回归模型,利用sigmoid函数将线性回归的输出转化为概率值,并通过最小化代价函数求解参数θ的算法。正则化逻辑回归则是在逻辑回归的基础上引入正则化项,避免过拟合问题。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [吴恩达机器学习逻辑回归(二分类)](https://blog.csdn.net/q642634743/article/details/118831665)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [机器学习笔记——逻辑回归之二分类](https://blog.csdn.net/dzc_go/article/details/108855689)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值