学习决策树算法

决策树可以用于分类和回归
算法有ID3、C4.5、C5.0和CART
ID3选择属性用的是信息增益,该度量基于熵,选择具有最高信息增益的属性作为分裂属性;信息增益倾向于选择具有大量值的属性,当考虑作为唯一标识符的属性如ID时,是没有意义的。
C4.5选择属性用是信息增益
C5.0在C4.5基础上有所改进,占内存小,更精确
CART(Classification and Regression Trees)与C4.5很相似,但是它支持数值型的目标变量(回归),只做二元切分
scikit-learn使用一种优化的CART算法。

首先导入 from sklearn import tree
DecisionTreeClassifier是一个能处理分类(二元或多元)的类。

from sklearn.metrics import precision_recall_curve 
precision_recall_curve()方法返回准确率、召回率以及

print(clf.feature_importances_) 输出每个特征的影响力,越大表示该特征在分类中起的作用越大

准确率(precision)和召回率(recall):
precision=分类器断言为正类的那部分记录中,实际为正类的记录所占的比例
recall=被分类器正确预测的正样本的比例,即正确预测的正样本记录数占 实际正样本记录的比例


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值