逻辑回归模型_【机器学习】逻辑回归模型详解

这篇博客按照《统计学习方法》的框架,详细阐述逻辑回归模型,包括模型定义(作为广义线性模型,使用sigmoid函数)、学习策略(最小化交叉熵损失和对率损失函数)以及学习算法(采用梯度下降法,如BGD、SGD和mini-BGD)。
摘要由CSDN通过智能技术生成

bc9ae1fa432e43a158d03e7efb16bff1.png

按照李航老师在《统计学习方法》中描述的方法论,我们将之后总结的每一个机器学习方法都按照“模型——策略——算法“来梳理。有一些方法间会共享一些策略(如:最小化交叉熵损失)与算法(如:梯度下降),因此它们出现第一次的时候我会着重说明,之后将一笔带过。有的时候我也说不清楚某部分知识是属于模型、策略还是方法,因此会出现强硬归类的现象。我不管,我就这么写。

逻辑回归的模型定义

d000dc1ec59c7603cae309fd4928e2d8.png
图1 逻辑回归函数

当z趋近于+∞时,输出值趋近于1;当z趋近于-∞时,输出值趋近于0。

实际上,逻辑回归模型属于广义线性模型,就是将线性回归的输出,套了一层sigmoid函数。

sigmoid函数有一个非常重要的特性,那就是

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值