人工智能教程(二)

        本文用一个机器学习的实例,让大家看一下其实机器学习没有那么难学,希望大家看后可以增加自信,坚持把人工智能的知识学好。

        本实例的数据集来自kaggle网站,用来预测泰坦尼克号沉船事件的幸存者。采用的模型是xgboost。  该问题属于监督学习中的二分类问题

import xgboost as xgb
from xgboost.sklearn import XGBClassifier
train_data = pd.read_csv("/kaggle/input/titanic/train.csv")  # 导入训练数据
train_data.head()
test_data = pd.read_csv("/kaggle/input/titanic/test.csv")  # 导入测试数据
test_data.head()

y = train_data["Survived"]  # 获取训练标签
features = ["Pclass", "Sex", "SibSp", "Parch"] 
X = pd.get_dummies(train_data[features])  # 获取训练特征
X_test = pd.get_dummies(test_data[features]) #获取测试特征

xlf = xgb.XGBClassifier(max_depth=3, #树的深度,越大越容易过拟合
                        learning_rate=0.1,
                        n_estimators=1000, 
                        objective='binary:logistic', 
                        nthread=8,
                        gamma=0,                   
                        min_child_weight=1, 
                        max_delta_step=0, 
                        subsample=0.7, 
                        colsample_bytree=0.7, 
                        colsample_bylevel=1, 
                        reg_alpha=1, #控制模型复杂程度的权重值的 L1 正则项参数,参数值越大,模型越不容易过拟合
                        reg_lambda=1,  # 控制模型复杂度的权重值的L2正则化项参数,参数越大,模型越不容易过拟合。
                        scale_pos_weight=1, 
                        seed=50)

predictions=xlf.predict(X_test)  # 模型预测
output = pd.DataFrame({'PassengerId': test_data.PassengerId, 'Survived': predictions})
  

        代码的关键部分都加了注释,如果实在看不到也没有关系, 这个例子只是让大家感受一下其实机器学习没有那么难学。后续我们会一步一步的学习相关的知识,大家不能着急。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

yongche_shi

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值