- 博客(7)
- 资源 (2)
- 问答 (1)
- 收藏
- 关注
转载 GBDT:梯度提升决策树
综述 GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力较强的算法。 GBDT中的树是回归树(不是分类树),GBDT用来做回归预测,调整后也可以用于分类
2017-09-29 17:18:47 284
转载 GBDT(MART) 迭代决策树入门教程 | 简介
GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力(generalization)较强的算法。近些年更因为被用于搜索排序的机器学习模型而引起大家关注。
2017-09-29 17:18:21 277
转载 Python性能优化的20条建议
优化算法时间复杂度算法的时间复杂度对程序的执行效率影响最大,在Python中可以通过选择合适的数据结构来优化时间复杂度,如list和set查找某一个元素的时间复杂度分别是O(n)和O(1)。不同的场景有不同的优化方式,总得来说,一般有分治,分支界限,贪心,动态规划等思想。减少冗余数据如用上三角或下三角的方式去保存一个大的对称矩阵。在0元素占大多数的矩阵里使用稀疏矩阵表示。
2017-09-29 11:31:03 257
转载 XGBoost参数调优完全指南(附Python代码)
原文地址:Complete Guide to Parameter Tuning in XGBoost by Aarshay Jain 原文翻译与校对:@MOLLY && 寒小阳 ([email protected]) 时间:2016年9月。 出处:http://blog.csdn.net/han_xiaoyang/article/details/52665396
2017-09-28 18:52:39 355
原创 当训练数据集很小的时候怎么办?
What to do with “small” data?By Ahmed El DeebMany technology companies now have teams of smart data-scientists, versed in big-data infrastructure tools an
2017-09-27 18:00:48 4737
原创 feature_names mismatch XGBoost错误解析
更好的办法是只需要在train和test的文件第一行加一个dummy列,包含最大的特征序号即可feature_names mismatch 的错误就是训练集和测试集的特征个数不一致导致的。一、a.csv:最大小标是5。所以,训练集的特征维数就是6b.csv:最大小标是4。所以,训练集的特征维数就是5所以,就是训练集和测试集
2017-09-21 18:42:57 1577
转载 XGBoost-Python完全调参指南-参数解释篇
在analytics vidhya上看到一篇,写的很好。因此打算翻译一下这篇文章,也让自己有更深的印象。具体内容主要翻译文章的关键意思。原文见:http://www.analyticsvidhya.com/blog/2016/03/complete-guide-parameter-tuning-xgboost-with-codes-python/这篇文章按照原文的分节,
2017-09-21 18:40:36 363
ML step by step
2017-09-21
python 正则表达式 findall和search的问题
2015-09-23
TA创建的收藏夹 TA关注的收藏夹
TA关注的人