机器学习:逻辑回归与K折交叉验证

这篇博客介绍了逻辑回归在二分类问题中的应用,强调了决策边界的设定。通过熵和交叉熵的概念,详细解释了逻辑回归的损失函数。此外,文章还探讨了梯度下降法,并引入K折交叉验证作为评估模型性能的指标。最后,提供了代码实现来辅助理解。
摘要由CSDN通过智能技术生成


线性回归:预测一个连续的值

逻辑回归:预测一个离散的值

逻辑回归的引入

在这里插入图片描述
在这里插入图片描述
当我们要做二分类的时候,我们一般只希望得到两个值 y = 0 或 1
但是, 线性回归得到的值是在一个范围内的连续值,而且可能远 > 1 或远 < 0
这样会给分类带来困难,我们希望的值域:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

决策边界

在这里插入图片描述
在这里插入图片描述

逻辑回归的损失函数

线性回归的做法是:损失函数
在这里插入图片描述
那么逻辑回归的损失函数怎么确定呢?

熵的引入

熵的意义:

热力学上: 熵是一种测量分子不稳定的指标,分子运动越不稳定,熵就越大
信息论(香农): 熵是一种测量信息量的单位,信息熵,包含的信息越多,熵就越大。
机器学习: 熵是一种测量不确定性的单位,不确定性越大,概率越小,熵就越大!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值