初级算法班(2) ——逻辑回归

本文深入探讨逻辑回归,从模型定义、损失函数的推导和优化算法讲起,阐述其与线性回归的联系和区别,包括在分类问题上的优势和不足,以及正则化和模型评估方法,如L1、L2正则化和混淆矩阵、ROC曲线等。此外,还介绍了处理样本不均衡问题的策略。
摘要由CSDN通过智能技术生成

写在前面:由于昨天实验室毕业聚餐,和老师师兄们喝酒耽误了一天,所以没有太多的时间仔细梳理一下逻辑回归,这里就把我以前的笔记 po 出来,由于时间不够,所以公式就没有自己手打,全是图片,等后期有时间后再来优化这篇博客,按自己的理解梳理整个算法,并把公式全部打出来。

逻辑回归

和前面线性回归一样,从模型,代价函数和优化算法三个方面来描述逻辑回归算法

1. 逻辑回归模型

逻辑回归从本质上来说就是在线性回归的外面套了一个sigmoid函数,使样本能够映射到[0,1]之间,即为
线性在这里插入图片描述
在二维坐标中的表现是这样的
在这里插入图片描述

2. 逻辑回归损失函数

2.1 推导

逻辑回归不是连续的,所以线性回归损失函数定义的经验就用不上了。不过我们仍然可以用最大似然法来推导出我们的损失函数。逻辑回归的代价函数为交叉熵函数:
在这里插入图片描述
其中:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.2 优化

在这里插入图片描述

3. 优化算法

梯度下降法
在这里插入图片描述

4. 逻辑回归和线性回归的联系和区别

4.1 联系

(1)都属于广义线性回归模型
(2)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值