![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
TheRebel_
这个作者很懒,什么都没留下…
展开
-
基于随机森林的特征选择
本文翻译自原文: http://blog.datadive.net/selecting-good-features-part-iii-random-forests/两类方法:1.按impurity(基尼系数或者信息熵这类)来排序特征(Mean decrease impurity)from sklearn.datasets import load_bostonfrom sklearn.ens...翻译 2018-12-22 09:53:00 · 4337 阅读 · 0 评论 -
特征选择
特征选择的目标:1.减少特征的数目来避免过拟合并提高模型的泛化能力2.加深对特征与目标变量间的关系的理解下面得到例子中,主要是对回归数据集,但是大多数的讨论和例子同样适用于分类数据集及方法。在做回归前,为了减少特征,对于近似线性相关的模型,我们偏向用皮尔森相关系数,但还有MIC,distance correlation,添加高次项等方法。对于非线性的模型,我们偏向用基于树的方法(决策树,随...翻译 2018-12-22 09:57:02 · 523 阅读 · 0 评论