有手就行——基础XGBoost实战以 iris 数据集为例


对于很多只是小小使用机器学习,而不是深入了解的人来说,了解各种原理可能是十分痛苦的,所以这里就以 XGBoost 为例,从导入数据到最后预测都用简单代码求解。 注意:以下图表是在 Jupyter 上运行得到的。

1、导入数据

不管怎么样,先导入数据,然后观察数据是否需要进行预处理

import pandas as pd
df = pd.read_csv('iris.csv')
df.head()

在这里插入图片描述

2、数据预处理

从上表可以发现,数据集的最后一列是字符型,需要转化为数值型(也就是 0 , 1 , 2 0,1,2 0,1,2)才能进行后续操作。

from sklearn.preprocessing import LabelEncoder
df['class'] = LabelEncoder().fit_transform(df.iloc[:,-1])

3、分训练集和测试集

把特征和标签分开,得到 X X X y . y. y.

X = df.drop(columns='class')
y = df['class']

提取完特征变量后,通过如下代码将数据分为 80 % 80\% 80% 的训练集和 20 % 20\% 20% 的测试集。

from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=123)

4、训练模型构建

划分为训练集和测试集之后,就可以引入 X G B o o s t XGBoost XGBoost 分类器进行模型训练了,参数的选择可以根据自己的实际情况设置,这里随便设置,代码如下:

from xgboost import XGBClassifier
clf = XGBClassifier(n_estimators=100, learning_rate=0.05)
clf.fit(X_train, y_train)

在这里插入图片描述

5、测试集预测准确度

模型训练完毕后,通过如下代码预测测试集数据,并将预测值和实际值进行对比

y_pred = clf.predict(X_test)
a = pd.DataFrame()  # 创建一个空DataFrame 
a['预测值'] = list(y_pred)
a['实际值'] = list(y_test)
a.head()

在这里插入图片描述
计算测试值的预测准确度,可以使用如下两个代码中的一个,第一个是 s k l e a r n sklearn sklearn 的,第二个是模型自带的。准确度为 93.33 % 93.33\% 93.33%

# 第一种
from sklearn.metrics import accuracy_score
score = accuracy_score(y_pred, y_test)
score
# 第二种
clf.score(X_test, y_test)

XGBClassifier 分类器本质预测的并不是准确的 0 0 0 1 1 1 的分类,而是预测其属于某一分类的概率,查看预测属于各个分类的概率

6、构建混淆矩阵

y_pred_proba = clf.predict_proba(X_test)

r o c roc roc 曲线通常用于二分类,多分类选择用混淆矩阵

# 多分类用混淆矩阵
from sklearn.metrics import confusion_matrix
C = confusion_matrix(y_test,y_pred)
# 画图
import matplotlib.pyplot as plt
plt.matshow(C,cmap=plt.cm.Greens)
for i in range(len(C)):
    for j in range(len(C)):
        plt.annotate(C[j, i], xy=(i, j), horizontalalignment='center', verticalalignment='center')
# 加标签
plt.ylabel('True label')
plt.xlabel('Pred label')
# 设置字体大小。
plt.ylabel('True label', fontdict={'family': 'Times New Roman', 'size': 20}) 
plt.xlabel('Pred label', fontdict={'family': 'Times New Roman', 'size': 20})
plt.show()

在这里插入图片描述

7、特征重要性

展示各个特征的重要性

# 获取特征名称
features = X.columns
# 获取特征重要性
importances = clf.feature_importances_  
# 通过二维表格形式显示
importances_df = pd.DataFrame()
importances_df['特征名称'] = features
importances_df['特征重要性'] = importances
importances_df.sort_values('特征重要性', ascending=False)

在这里插入图片描述
可以发现第三个特征 p e t a l _ l e n g t h petal\_length petal_length 的重要性高达 72 % 72\% 72%,第二个特征 p e t a l _ w i d t h petal\_width petal_width 的重要性高达 21 % 21\% 21%,这两个特征加起来高达 93 % 93\% 93%.

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

梦什

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值