Python实现Catboost分类模型(CatBoostClassifier算法)项目实战

376 篇文章 275 订阅

说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取。

1.项目背景

CatBoost提供最先进的结果,在性能方面与任何领先的机器学习算法相比都具有竞争力。CatBoost是一种基于对称决策树(oblivious trees)为基学习器实现的参数较少、支持类别型变量和高准确性的GBDT框架,主要解决的痛点是高效合理地处理类别型特征,这一点从它的名字中可以看出来,CatBoost是由Categorical和Boosting组成。CatBoost无需对数据特征进行任何显式的预处理就可以将类别转换为数字。CatBoost使用关于分类特征组合以及分类和数字特征组合的各种统计信息将分类值转换为数字。

本项目使用CatBoostClassifier来解决分类问题。

2.数据获取

本次建模数据来源于网络(本项目撰写人整理而成),数据项统计如下:

数据详情如下(部分展示):

3.数据预处理

3.1 用Pandas工具查看数据

使用Pandas工具的head()方法查看前五行数据:

从上图可以看到,总共有9个字段。

关键代码:

3.2缺失值统计

使用Pandas工具的info()方法统计每个特征缺失情况:

 

从上图可以看到,数据不存在缺失值,总数据量为1000条。

关键代码:

3.3变量描述性统计分析

通过Pandas工具的describe()方法来来统计变量的平均值、标准差、最大值、最小值、分位数等信息:

关键代码如下:

4.探索性数据分析

4.1 y变量分类柱状图

用Pandas工具的value_counts().plot()方法进行统计绘图,图形化展示如下:

 从上面两个图中可以看到,分类为0和1的样本,数量基本一致。

4.2 y变量类型为0 x1变量分布直方图

通过Matpltlib工具的hist()方法绘制直方图:

从上图可以看出,x1变量成正态分布,主要集中在-2~0之间。

4.3 相关性分析

通过Pandas工具的corr()方法和seaborn工具的heatmap()方法绘制相关性热力图:

从图中可以看到,正数为正相关,负数为负相关,绝对值越大相关性越强。

5.特征工程

5.1 建立特征数据和标签数据

y为标签数据,除 y之外的为特征数据。关键代码如下:

 

5.2 数据集拆分

数据集集拆分,分为训练集和测试集,80%训练集和20%测试集。关键代码如下:

6.构建CatBoost分类模型

主要使用CatBoostClassifier算法,用于目标分类。

6.1模型调优:应用网格搜索寻找最优参数值

使用网格搜索算法来寻找最优的参数值:

关键参数代码:

 6.2模型最优参数

7.模型评估

7.1评估指标及结果

评估指标主要包括准确率、查准率、召回率、F1分值等等。

从上表可以看出,CatBoost分类模型比较优秀,效果非常好。

关键代码如下:

7.2 查看是否过拟合

查看训练集和测试集的分数:

 

通过结果可以看到,训练集分数和测试集分数基本相当,所以没有出现过拟合现象。

关键代码:

7.3 混淆矩阵

CatBoost分类模型混淆矩阵:

 

从上图可以看到,实际值为1 预测为0的有9个;实际值为0  预测为1的有6个;这些是预测错误的,总共15个,在可以接受的范围内。

7.4 分类报告

CatBoost分类模型分类报告:

从上图可以看到,分类类型为0的F1分值为0.93;分类类型为1的F1分值为0.92;整个模型的准确率为0.93.

7.5 ROC曲线 

 

从上图可以看出AUC值为0.98,模型非常棒。

8.结论与展望

综上所述,本项目采用了CatBoost分类模型,最终证明了我们提出的模型效果良好。

本次机器学习项目实战所需的资料,项目资源如下:

项目说明:

# 本次机器学习项目实战所需的资料,项目资源如下:

链接:https://pan.baidu.com/s/1pJZcOz_-rsNe76ylaf1c0Q 
提取码:3loe






# 用Pandas工具查看数据
print(data.head())

# 数据缺失值统计
print('****************************************')
print(data.info())

print('****************************************')
print(data.describe().round(4))  # 保留4位小数点

# y变量分类柱状图
plt.rcParams['font.sans-serif'] = ['SimHei']  # 指定默认字体
plt.rcParams['axes.unicode_minus'] = False  # 解决保存图像是负号'-'显示为方块的问题
# kind='bar' 绘制柱状图
data['y'].value_counts().plot(kind='bar')
plt.xlabel("y变量类型")
plt.ylabel("数量")
plt.title('y变量分类柱状图')  # 设置标题
plt.show()  # 显示图片
  • 2
    点赞
  • 70
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
KNN(K-近邻)分类算法python实现如下: 1. 导入必要的库 ```python from sklearn.neighbors import KNeighborsClassifier from sklearn.datasets import load_iris # 用于测试的鸢尾花数据集 from sklearn.model_selection import train_test_split # 用于将数据集划分为训练集和测试集 from sklearn.metrics import accuracy_score # 用于计算分类准确率 ``` 2. 加载测试数据集 ```python iris = load_iris() # 加载鸢尾花数据集 X, y = iris.data, iris.target # 获取数据和标签 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # 将数据集划分为训练集和测试集,测试集占比为30% ``` 3. 创建KNN分类器 ```python knn = KNeighborsClassifier(n_neighbors=3) # 创建KNN分类器,设置K=3 ``` 4. 训练模型 ```python knn.fit(X_train, y_train) # 使用训练集对KNN分类器进行训练 ``` 5. 进行预测 ```python y_pred = knn.predict(X_test) # 使用测试集进行预测 ``` 6. 计算分类准确率 ```python accuracy = accuracy_score(y_test, y_pred) # 计算分类准确率 print('Accuracy:', accuracy) # 输出分类准确率 ``` 完整代码如下: ```python from sklearn.neighbors import KNeighborsClassifier from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score iris = load_iris() X, y = iris.data, iris.target X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) knn = KNeighborsClassifier(n_neighbors=3) knn.fit(X_train, y_train) y_pred = knn.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print('Accuracy:', accuracy) ``` 运行结果如下: ``` Accuracy: 1.0 ``` 说明该KNN分类器在测试集上分类准确率为100%。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

胖哥真不错

您的鼓励,将是我最大的坚持!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值