xgboost

# 导入 pandas 用于数据分析
import pandas as pd
# 利用 pandas 的 read_csv 模块直接从互联网收集泰坦尼克号乘客数据(通过 URL 地址来下载 Titanic 数据)
titanic = pd.read_csv('http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt')
# 选取 sex, age, pclass 作为训练特征
X = titanic[['pclass', 'age', 'sex']]
y = titanic['survived']
# 对缺失的 age 信息,使用平均值方法进行补全,即以 age 列已知数据的平均数填充
X['age'].fillna(X['age'].mean(), inplace=True)
# 对原始数据进行分割,随机采样 25% 的数据作为测试集
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state = 33)
# 从 sklearn.feature_extraction 导入 DictVectorizer
from sklearn.feature_extraction import DictVectorizer
vec = DictVectorizer(sparse=False)
# 对原始数据进行特征向量化处理
X_train = vec.fit_transform(X_train.to_dict(orient='record'))
X_test = vec.transform(X_test.to_dict(orient='record'))
# 采用默认配置的随机森林分类器对测试集进行预测
from sklearn.ensemble import RandomForestClassifier
rfc = RandomForestClassifier()
rfc.fit(X_train, y_train)
print ( "The accuracy of Random Forest Classifier on testing set:", rfc.score(X_test, y_test))
# 采用默认配置的 XGBoost 模型对相同的测试集进行预测
from xgboost import XGBClassifier
xgbc = XGBClassifier(learning_rate=0.1)
xgbc.fit(X_train, y_train)
print ('The accuracy of eXtreme Gradient Boosting Classifier on testing set:', xgbc.score(X_test, y_test))

随机森林模型总体在测试集上预测的准确性为 78.11% ,而 XGBoost 模型总体在测试集上预测的准确性为 79.03% 。说明 XGBoost 分类模型的确可以发挥更好的预测能力。

具体讲解代码笔记

https://blog.csdn.net/kizgel/article/details/78261672

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值