【1】转载自http://blog.csdn.net/gumpeng/article/details/51397737
【2】简单总结一下:
ID4.5:使用信息增益来选择特征,缺点:偏好分支较多的属性。
C4.5 :信息增益率、剪枝、连续、缺失均可处理
CART: 基尼不纯度
GBDT: boosting算法。GBDT的核心就在于,每一棵树学的是之前所有树结论和的残差,这个残差就是一个加预测值后能得真实值的累加量。
【1】转载自http://blog.csdn.net/gumpeng/article/details/51397737
【2】简单总结一下:
ID4.5:使用信息增益来选择特征,缺点:偏好分支较多的属性。
C4.5 :信息增益率、剪枝、连续、缺失均可处理
CART: 基尼不纯度
GBDT: boosting算法。GBDT的核心就在于,每一棵树学的是之前所有树结论和的残差,这个残差就是一个加预测值后能得真实值的累加量。