逻辑回归原理

本文主要介绍了逻辑回归的原理和应用,包括从线性回归到逻辑回归的转换、二元逻辑回归的模型和损失函数、优化方法以及正则化等内容。以下是内容的详细叙述:

1. 从线性回归到逻辑回归
线性回归模型:线性回归是找出输出特征向量Y与输入样本矩阵X之间的线性关系系数

θ,满足,此时Y是连续的,属于回归模型。
*转换为分类模型:如果想要Y是离散的,可以通过对Y进行函数转换,如g(Y)。根据g(Y)的值在不同的实数区间内分配类别A或B,从而得到一个分类模型。当结果类别只有两种时,即为二元分类模型。

2. 二元逻辑回归的模型
sigmoid函数:在逻辑回归中,常用的转换函数是sigmoid函数,形式为。该函数具有很好的性质,当z趋于正无穷时,g(z)趋于1;当z趋于负无穷时,g(z)趋于0。
概率分布函数:假设样本输出为0或1两类,逻辑回归模型定义

3. 二元逻辑回归的损失函数
最大似然法:逻辑回归的损失函数通过最大似然法推导出来,用于描述样本输出的概率分布。
损失函数表达式:


L1和L2正则化:为了防止过拟合,可以加入L1或L2正则化项,分别对应于$\theta$的L1范数和L2范数。

4. 二元逻辑回归的优化方法
梯度下降法:使用梯度下降法来最小化损失函数。迭代公式为:


矩阵表示:损失函数也可以写成矩阵形式,便于计算。

5. 多元逻辑回归
推广到多元:二元逻辑回归可以推广到多元逻辑回归,处理多个类别的情况。常用的方法有one-vs-rest (OvR) 和 many-vs-many (MvM)。
softmax回归:在多元逻辑回归中,可以使用softmax回归作为特例,通过计算每个类别的对数几率来进行分类。

总之,逻辑回归是一个强大的分类算法,适用于二元和多元分类问题。通过理解其原理和优化方法,可以有效地应用于各种机器学习任务中。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值