参考学习原文章:工作台 - Heywhale.com
本文仅作学习总结,如有帮助也可参考。
鸢尾花数据集逻辑回归分类预测
一、逻辑回归
一、逻辑回归介绍
逻辑回归(Logistic Regression)是一种广泛使用的统计方法,用于预测二分类(binary)或多分类(multinomial)问题的结果。尽管其名称中包含“回归”,实际上逻辑回归是一种分类算法,主要用于预测一个观测值属于特定类别的概率。
二、逻辑回归原理
逻辑回归通过应用一个逻辑函数(通常是Sigmoid函数)将线性回归的输出映射到0和1之间,这个输出被解释为属于某个类别的概率。Sigmoid函数的公式是:
其中,z是特征与其权重的线性组合,即:z=β0+β1x1+β2x2+...+βnxn
- β0是截距项,
- β1,β2,...,βn是模型参数,
- x1,x2,...,xn是特征。
三、训练
逻辑回归模型的训练涉及到找出能最好地拟合给定数据集的模型参数(β值)。这通常通过最大化对数似然函数来实现,这个过程被称为最大似然估计(MLE)。
四、预测
模型训练完成后,可以通过多种方式评估其性能,包括准确率、召回率、精确率和F1分数等。此外,接收者操作特征(ROC)曲线及其下面积(AUC)也是评估二分类问题性能的常用指标。
五、优缺点
突出优点:其模型简单和模型的可解释性强。
优点
- 简单且高效:逻辑回归模型简单易于实现,对于小到中等大小的数据集来说非常高效。
- 解释性强:模型的结果易于解释,可以清楚地了解特征如何影响预测结果。
- 概率输出:逻辑回归提供了观测值属于某个类别的概率估计,这比简单的二元输出更为丰富。
缺点
- 线性边界:逻辑回归假设数据有线性边界,对于复杂的非线性关系可能不够灵敏。
- 高度依赖数据表示:逻辑回归的性能在很大程度上依赖于输入数据的正确表示(如特征选择和处理)。
- 对异常值敏感:异常值或极端值可能对模型的性能产生不利影响。
六、图像
import numpy as np
import matplotlib.pyplot as plt
x = np.arange(-5,5,0.01)
y = 1/(1+np.exp(-x))
plt.plot(x,y)
plt.xlabel('z')
plt.ylabel('y')
plt.grid()
plt.show()
二、对鸢尾花数据集进行分类预测
一、鸢尾花数据集介绍
该数据集一共包含5个变量,其中4个特征变量,1个目标分类变量。共有150个样本,目标变量为 花的类别 其都属于鸢尾属下的三个亚属,分别是山鸢尾 (Iris-setosa),变色鸢尾(Iris-versicolor)和维吉尼亚鸢尾(Iris-virginica)。包含的三种鸢尾花的四个特征,分别是花萼长度(cm)、花萼宽度(cm)、花瓣长度(cm)、花瓣宽度(cm)。
变量 | 描述 |
---|---|
sepal length | 花萼长度(cm) |
sepal width | 花萼宽度(cm) |
petal length | 花瓣长度(cm) |
petal width | 花瓣宽度(cm) |
target | 鸢尾的三个亚属类别,'setosa'(0), 'versicolor'(1), 'virginica'(2) |
二、数据集处理
一、导入库函数
## 基础函数库
import numpy as np
import pandas as pd
## 绘图函数库
import matplotlib.pyplot as plt
import seaborn as sns
在进行数据处理时需要调用numpy 和 pandas 库,以及在后续数据可视化的时候需要调用matplotlib来进行画二维,三维图。
二、数据读取及查看
## 利用 sklearn 中自带的 iris 数据作为数据载入,并利用Pandas转化为DataFrame格式
from sklearn.datasets import load_iris
data = load_iris() #得到数据特征
iris_target = data.target #得到数据对应的标签
iris_features = pd.DataFrame(data=data.data, columns=data.feature_names) #利用Pandas转化为DataFrame格式
特征统计:
## 对于特征进行一些统计描述
iris_features.describe()
三、逻辑回归在二分类上进行训练和预测
一、训练
## 为了正确评估模型性能,将数据划分为训练集和测试集,并在训练集上训练模型,在测试集上验证模型性能。
from sklearn.model_selection import train_test_split
## 从sklearn中导入逻辑回归模型
from sklearn.linear_model import LogisticRegression
## 选择其类别为0和1的样本 (不包括类别为2的样本)
iris_features_part = iris_features.iloc[:100]
iris_target_part = iris_target[:100]
## 测试集大小为20%, 80%/20%分
x_train, x_test, y_train, y_test = train_test_split(iris_features_part, iris_target_part, test_size = 0.2, random_state = 2020)
## 定义 逻辑回归模型
clf = LogisticRegression(random_state=0, solver='lbfgs')
# 在训练集上训练逻辑回归模型
clf.fit(x_train, y_train)
- 仅选取标签为0 和 1 的样本进行二分类训练
- 训练集测试集4:1进行训练
二、预测
from sklearn import metrics
## 在训练集和测试集上分布利用训练好的模型进行预测
train_predict = clf.predict(x_train)
test_predict = clf.predict(x_test)
## 利用accuracy(准确度)【预测正确的样本数目占总预测样本数目的比例】评估模型效果
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))
## 查看混淆矩阵 (预测值和真实值的各类情况统计矩阵)
confusion_matrix_result = metrics.confusion_matrix(test_predict,y_test)
print('The confusion matrix result:\n',confusion_matrix_result)
# 利用热力图对于结果进行可视化
plt.figure(figsize=(8, 6))
sns.heatmap(confusion_matrix_result, annot=True, cmap='Blues')
plt.xlabel('Predicted labels')
plt.ylabel('True labels')
plt.show()
- 利用训练好的模型直接进行预测
- 再通过accuracy进行一个预测评估
- 利用混淆矩阵来预测真实值与预测值的差别
三、总结
通过机器学习中逻辑回归对鸢尾花数据的处理以及预测,简单的进行二分类的实现。
- sklearn 自带的iris数据进行数据载入
- describe()是Pandas库中的一个函数,用于生成关于数据框的基本统计摘要的信息。这些统计信息包括计数、均值、标准差、最小值、25th、50th(中位数)、75th百分位数以及最大值。
- 对于模型的训练而言:实质上来说就是利用数据求解出对应的模型的特定的w。从而得到一个针对于当前数据的特征逻辑回归模型。 而对于多分类而言,将多个二分类的逻辑回归组合,即可实现多分类。