Python手撸逻辑回归(logistic regression)

本文介绍了逻辑回归的基本原理,包括它与线性回归的区别,以及为什么使用sigmoid函数。重点讨论了逻辑回归的损失函数——交叉熵损失,并解释了为什么避免使用线性回归的损失函数,因为它可能导致局部最优。通过图示展示了损失函数的梯度以及正则化对防止过拟合的作用。最后,给出了Python代码实现,并比较了使用内置优化函数和手动批量梯度下降的决策边界,讨论了正则化参数对模型拟合程度的影响。
摘要由CSDN通过智能技术生成

与线性回归用于预测连续值不同,逻辑归回用于分类,原理与线性回归类似,定义损失函数,然后最小化损失,得到参数既模型,只不过损失的定义不同。

逻辑回归的假设如图1所示,可以理解为线性回归外面套了一层sigmoid函数g(z),sigmoid函数图像如图2所示,该函数有很好的数学性质,其导数= g(z)*(1- g(z)),导数计算量小,当z=0时,其函数值为0.5,z越大,函数值越接近于1,z越小,函数值越接近于0。


图1 逻辑回归假设


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值