决策树
它就可以做分类,也可以做回归。分类决策树的类对应的是DecisionTreeClassifier,而回归决策树的类对应的是DecisionTreeRegressor。两者的参数定义几乎完全相同,但是意义不全相同。下面是两者区别
参数 | DecisionTreeClassifier | DecisionTreeRegressor |
---|---|---|
特征选择标准criterion | 可以使用基尼系数"gini"或者信息增益"entropy"。一般默认的基尼系数"gini",即CART算法。"entropy"主要用在iD3, C4.5算法 | 均方差mse"或者均值之差的绝对值之和"mae"。默认"mse"。一般来说"mse"比"mae"更加精确 |
类别权重class_weight | 指定样本各类别的的权重,主要是为了防止训练集某些类别的样本过多,导致训练的决策树过于偏向这些类别。这里可以自己指定各个样本的权重,或者用“balanced”,如果使用“balanced”,则算法会自己计算权重,样本量少的类别所对应的样本权重会高。当然,如果你的样本类别分布没有明显的偏倚,则可以不管这个参数,选择默认的"None" | 不适用 |
共同点
参数 | DecisionTreeClassifier &&DecisionTreeRegressor |
---|---|
特征划分点选择标准splitter |