如何用机器学习计算特征的重要性
https://zhuanlan.zhihu.com/p/129705831
决定系数的定义
https://blog.csdn.net/weixin_45288557/article/details/119422017
xgboost的使用
http://www.zzvips.com/article/55992.html
sklearn库的预测、分类问题
https://blog.csdn.net/qq_35591253/article/details/127048508
Adaboost的使用
https://blog.csdn.net/gracejpw/article/details/102632836
机器学习参数解释
https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostRegressor.html
- 随机森林
from sklearn.ensemble import RandomForestRegressor
feature_importances_
解释:基于杂质特征重要性(impurity-based feature importances)。数值越高,功能就越重要。特征的重要性被计算为该特征所带来的标准的(归一化的)总减少。这也被称为基尼系数的重要性。注意可能会带来高基数特征