机器学习笔记(5)— 逻辑回归

1.二分类

逻辑回归即分类问题,本文以二分类(将数据及分为两类)为例。主要讲解逻辑回归的数学模型,决策边界以及代价函数,以及逻辑回归与线性回归的关系等。

2.逻辑回归模型

假设逻辑回归的目标函数为:
在这里插入图片描述
其中:
在这里插入图片描述
则目标函数为:
在这里插入图片描述
其图像为:
在这里插入图片描述
假设h_θ (x)≥0.5时预测的y=1, h_θ (x)<0.5时,预测的y=0。
当h_θ (x)≥0.5时,即〖g(θ〗^T x)≥0.5,从图中我们可以看出z>0当时,满足〖g(θ〗^T x)≥0.5。因此,我们知道,当满足:
在这里插入图片描述
预测的值y=1。

3.决策边界

假设目标函数为:
在这里插入图片描述
此时:
在这里插入图片描述
根据前文的结论,若想要y=1,则:
在这里插入图片描述
即:
在这里插入图片描述
即:
在这里插入图片描述
图像如下所示:
在这里插入图片描述
该函数的曲线就是上图中的红线,也被称为决策边界。把整个平面分为两个部分,决策边界是假设函数的一个属性,其取决于假设函数中的参数。

4.代价函数

线性回归中的的代价函数为:
在这里插入图片描述
令:
在这里插入图片描述
则代价函数为:
在这里插入图片描述
代表了代价函数是Cost项在训练集上的求和之后求平均。对于Cost函数的理解为:在预测值为h_θ (x_i ),实际输出为y_i的情况下,算法需要付出的代价。

5.使用Cost的代价函数以及Cost图像

我们使用Cost项画出的代价函数如下图1所示,这是一个非凸函数(机器学习中凹凸函数的定义和高数中的相反),当你使用梯度下降法是会有很多的局部最优解。而我们希望的函数图像如图2所示。
在这里插入图片描述
为解决非凸问题,定义Cost函数为:
在这里插入图片描述在这里插入图片描述

Cost函数图像如下:
在这里插入图片描述

6.简化的代价函数

为了避免把代价函数写成两种情况,同时使代价函数显得更紧凑,把代价函数改为:
在这里插入图片描述
当y=1时:
在这里插入图片描述
当y=0时:
在这里插入图片描述
因此逻辑回归的代价函数为:
在这里插入图片描述

7.逻辑回归与线性回归

逻辑回归与线性回归均属于广义线性回归,在广义线性回归中,若因变量是连续的,就是线性回归,若因变量服从二项分布,就是逻辑回归。线性回归是通过拟合函数目进行预测,逻辑回归通过预测函数分类。
逻辑回归本质上还是线性回归,与现行回归不同的是通过使用sigmoid函数将结果取值范围映射到[0,1]。逻辑回归在线性回归的实数范围输出值上施加sigmoid函数将值收敛到0~1范围, 其目标函数也因此从差平方和函数变为对数损失函数, 以提供最优化所需导数。
线性模型的优化目标函数是最小二乘法,而逻辑回归则是最大似然函数。线性回归在整个实数域范围内进行预测,敏感度一致,而分类范围,需要在[0,1]。逻辑回归就是一种减小预测范围,将预测值限定为[0,1]间的一种回归模型,因而对于这类问题来说,逻辑回归的鲁棒性比线性回归的要好。
逻辑回归的模型本质上是一个线性回归模型,逻辑回归都是以线性回归为理论支持的。但线性回归模型无法做到sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值