目录
1.决策树原理
1.1 运作原理
1.2 构建决策树
2.分类树DecisionTreeClassifier
2.1 重要参数
2.2 建一颗分类树
2.3 剪枝参数
1.决策树原理
1.1决策树运作原理
决策树(Decision Tree)是一种非参数的有监督学习方法,能从有特征和标签的数据中总结出决策规则,并用树状图的结构来呈现这些规则,以解决分类和回归问题。
tips:
①非参数,指不限制数据的结构和类型。有监督学习指的是必须有标签,告诉算法答案。
②决策树算法核心在于解决两个问题:
如何找出最佳节点和分枝
如何让决策树停止生长,防止过拟合
1.2构建决策树
1.2.1决策树模块—sklearn.tree
1.2.2 sklearn建模流程
from sklearn import tree
#random_state = 30 控制随机性,每次返回的结果一样
clf = tree.DecisionTreeClassifier(criterion="entropy",
random_state = 30,
spliter = 'random')
clf = clf.fit(X_train,y_train)
result = clf.score(X_test,y_test