python机器学习小记——基于逻辑回归模型的多分类场景预测实战

【阿里天池云-龙珠计划】python机器学习小记

在这里插入图片描述

<task01: 基于sklearn的Logistic Regression分类实现>

一、逻辑回归算法原理及应用介绍

二、入门Demo

三、基于鸢尾花(iris)数据集的逻辑回归分类实践


【写在前面】
接触机器学习也有一年多了,基本都是自学的野路子
借这个天池云龙珠计划的机会好好整理下各种常用算法模型思路以备忘,也给读者抛砖引玉
感谢群主提供的学习机会@AI蜗牛车,群KOL@老表
顺便推荐一下群众的公众号:AI蜗牛车,对上手机器学习很有帮助👍
那么我们开始吧~~


1. 逻辑回归算法原理及应用介绍

1.1. 逻辑回归的介绍

逻辑回归(Logistic regression,简称LR)是一个分类模型,并且广泛应用于各个领域之中。

其最为突出的两点就是其模型简单(部署快!)和模型的可解释性强(用于学术研究的因子分析 & 企业内数分的归因)。

优劣势:

  • 优点:实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低;
  • 缺点:容易欠拟合,分类精度可能不高

1.2. 逻辑回归的算法原理

逻辑回归主要用于两分类问题(也可用于多分类,准确性有损失),所以利用了Logistic函数(或称为Sigmoid函数,也常见于神经网络的激活函数),函数形式为:
l o g i ( z ) = 1 1 + e − z logi(z)=\frac{1}{1+e^{-z}} logi(z)=1+ez1

其对应的函数图像可以表示如下:

import matplotlib.pyplot as plt
x = np.arange(-5,5,0.01)
y = 1/(1+np.exp(-x))

plt.plot(x,y)
plt.xlabel('z')
plt.ylabel('y')
plt.grid()
plt.show()

在这里插入图片描述

通过上图我们可以发现 Logistic 函数是单调递增函数,并且在z=0的时候取值为0.5,并且 l o g i ( ⋅ ) logi(\cdot) logi()函数的取值范围为 ( 0 , 1 ) (0,1) (0,1)

而回归的基本方程为 z = w 0 + ∑ i N w i x i z=w_0+\sum_i^N w_ix_i z=w0+iNwixi

将回归方程写入其中为:
p = p ( y = 1 ∣ x , θ ) = h θ ( x , θ ) = 1 1 + e − ( w 0 + ∑ i N w i x i ) p = p(y=1|x,\theta) = h_\theta(x,\theta)=\frac{1}{1+e^{-(w_0+\sum_i^N w_ix_i)}} p=</

  • 8
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值