机器学习
张月鹏
数据爱好者
展开
-
模型融合-Kaggle Ensembling Guide
本文主要是参考 Kaggle Ensembling Guide 所写的读后感,原文网址详见:https://mlwave.com/kaggle-ensembling-guide/首先,我们讲到的模型融合的方式主要有三种:bagging (随机森林模型是基于bagging融合的代表)boosting (GBDT和XGboost模型是基于boosting融合的代表)stacking原创 2017-04-11 19:22:10 · 7733 阅读 · 0 评论 -
sklearn(scikit-learn) logistic regression loss(cost) function(sklearn中逻辑回归的损失函数)
讲述 sklearn 中逻辑回归的损失函数为什么与常见的形式不同。原创 2017-05-23 00:26:45 · 4977 阅读 · 3 评论 -
携程-出行产品未来14个月销量预测-第七名代码解读
本文简短介绍了我们团队-小月亮团队的解决方案,以及源码地址。还有top3队伍的解决思想原创 2017-05-16 00:04:51 · 4528 阅读 · 1 评论 -
xgboost 参数 scale_pos_weight 详解
从官网解说、源码和实验三个角度来解说 xgboost 参数: scale_pos_weight原创 2017-05-16 12:42:56 · 41366 阅读 · 17 评论 -
离群点检测与序列数据异常检测以及异常检测大杀器-iForest
异常检测,它的任务是发现与大部分其他对象不同的对象,我们称为异常对象。异常检测算法已经广泛应用于电信、互联网和信用卡的诈骗检测、贷款审批、电子商务、网络入侵和天气预报等领域。这些异常对象的主要成因有:来源于不同的模式、自然变异、数据测量以及随机误差等。而常见的异常检测算法都是针对独立的数据点进行异常检测,此时异常检测又称为离群点检测。而在序列数据的异常检测过程中,我们既可以直接使用对序列进行异常检测的算法,也可以先对序列数据进行特征提取然后转化为传统的离群点检测。原创 2017-08-16 20:21:59 · 13356 阅读 · 0 评论 -
xgboost 使用 MAE或MAPE 作为目标函数
xgboost目标函数首先我们知道xgboost支持自定义目标函数,参见:https://github.com/dmlc/xgboost/blob/master/demo/guide-python/custom_objective.py但是其要求目标函数必须二阶可导,我们必须显式给出梯度(可理解为一阶导)和hess阵(可理解为二阶导),但是MAE不可导。具体xgboost的原理的我原创 2018-01-30 16:21:40 · 7638 阅读 · 0 评论