xgboost和lightgbm学习

demo basic_walkthrough.py
加载输入

dtrain = xgb.DMatrix('../data/agaricus.txt.train')
dtest = xgb.DMatrix('../data/agaricus.txt.test')

## 其中dtest就包括了lable和数据,lable可以通过labels = dtest.get_label()获取。

 dtrain = xgb.DMatrix(csr, label = labels)
# csr可以是'scipy.sparse.csr.csr_matrix‘
# labels可以是list类型
csc = scipy.sparse.csc_matrix((dat, (row,col)))
或csc矩阵

参数设置,具体参数什么意思参考传送门

param = {'max_depth':2, 'eta':1, 'silent':1, 'objective':'binary:logistic' }

训练,直接导入参数,训练数据,训练轮数和watchlist

watchlist  = [(dtest,'eval'), (dtrain,'train')] # 'eval'是watchlist的名字
num_round = 2
bst = xgb.train(param, dtrain, num_round, watchlist)

预测

preds = bst.predict(dtest) # 输出概率是[sample,1],每个样本输出一个概率值

保存模型和保存数据

# save dmatrix into binary buffer
dtest.save_binary('dtest.buffer')
# save model
bst.save_model('xgb.model')
# load model and data in
bst2 = xgb.Booster(model_file='xgb.model')
dtest2 = xgb.DMatrix('dtest.buffer')
preds2 = bst2.predict(dtest2)

binary:logistic 就是错误等误差eval_metric[默认值取决于objective参数的取值]

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值