sklearn 决策树快速入门

目录

1、sklearn决策树与id3决策树的区别

2、一个简单的实例

3、sklearn决策树生成过程

3.1 数据准备

3.2 生成决策树

3.3 可视化输出


1、sklearn决策树与id3决策树的区别

https://stackoverflow.com/questions/32277562/how-to-set-up-id3-algorith-in-scikit-learn
http://scikit-learn.org/stable/modules/tree.html#tree-algorithms-id3-c4-5-c5-0-and-cart
根据这两个链接可知,
其实sklearn的决策树仅仅是实现了cart树而已,
当信息计算方式为Gini,Entropy,就用来分类
注意,sklearn并没有实现ID3,但是cart中使用entropy的效果,等效于“二叉树的ID3”
因为ID3可以是“二叉决策树”,也可以是“多叉决策树”,所以sklearn使用决策树+entropy方式时,
无法实现“基于ID3算法的多叉决策树”

参考链接:sklearn没有实现id3算法 

所以,我之前的迷惑是多余的。

2、一个简单的实例

from sklearn.feature_extraction import DictVectorizer
import csv
from sklearn import tree
from sklearn import preprocessing
import graphviz
import os
os.environ['PATH'] += os.pathsep +'C:\Program Files (x86)\Graphviz2.38\bin'

file='dataprofull.csv'
allData=open(file)
reader=csv.reader(allData)

next(reader)
headers=next(reader)

featureList=[]
labelList=[]

for row in reader:
   labelList.append(row[-1])
   ldict=[]
   for i in range(0,len(row)-1):
       ldict.append(float(row[i]))
   featureList.append(ldict)

lb=preprocessing.LabelBinarizer()
dummyY&
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值