逻辑回归(Logistic Regression)

逻辑回归是一种用于分类的有监督学习方法,它将连续输入映射到离散输出。与线性回归不同,逻辑回归通过Sigmoid函数将结果限制在[0,1]之间,用于表示概率。损失函数通常采用交叉熵。在实际应用中,通过设定阈值来决定分类结果。" 131522261,13951230,深度优先与广度优先搜索:原理与实践,"['算法', '数据结构', '图论', '搜索算法']
摘要由CSDN通过智能技术生成

逻辑回归

逻辑回归是一种有监督的统计学习方法,主要用于对样本进行分类。

在线性回归模型中,输出一般是连续的,例如
y = f ( x ) = a x + b y=f(x)=a x+b y=f(x)=ax+b
对于每一个输入的 x x x, 都有一个对应的 y y y输出。模型的定义域和值域都可以是 [ − ∞ , + ∞ ] [- \infty,+\infty] [,+]。但是对于逻辑回归,输入可以是连续的 [ − ∞ , + ∞ ] [-\infty,+ \infty] [,+],但输出一般是离散的, 即只有有限多个输出值。例如,其值域可以只有两个值 { 0 , 1 } , \{0,1\}, { 0,1}, 这两个值可以表示对样本的某种分类, 高/低、患病/健康、阴性/阳性等,这就是最常见的二分类逻辑回归。因此, 从整体上来说,通过逻辑回归模型,我们将在整个实数范围上的 x x x映射到了有限个点上,这样就实现了对 x x x的分类。因为每次拿过来一个 x x x,经过逻辑回归分析,就可以将它归入某一类 y y y中。

与线性回归的关系

逻辑回归也被称为广义线性回归模型,它与线性回归模型的形式基本上相同,都具有 a x + b ax+b ax+b,其中 a a a b b b是待求参数,其区别在于他们的
因变量不同, 多重线性回归直接将 a x + b ax+b ax+b作为因变量, 即 y = a x + b y = ax+b y=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值