训练决策树的时候发现,多次训练结束的特征重要性不一样,最重要的特征总是会有变动,特别是第一重要的特征在三个当中不断变动。分析是特征共线性导致的,这三个特征的相关关系是0.99,业务逻辑上,三者也确实是正相关的,因此剔除其中两个,剔除之后特征重要性就未定了许多
特征共线性问题不会影响模型准确性,但是会在判断特征重要性的时候造成可解释性差的问题。https://blog.csdn.net/youth06050/article/details/103554248
训练决策树的时候发现,多次训练结束的特征重要性不一样,最重要的特征总是会有变动,特别是第一重要的特征在三个当中不断变动。分析是特征共线性导致的,这三个特征的相关关系是0.99,业务逻辑上,三者也确实是正相关的,因此剔除其中两个,剔除之后特征重要性就未定了许多
特征共线性问题不会影响模型准确性,但是会在判断特征重要性的时候造成可解释性差的问题。https://blog.csdn.net/youth06050/article/details/103554248