决策树(DT)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。从数据产生决策树的机器学习技术叫做决策树学习。
通过定义我们知道,决策树(DT)是一种树形结构,树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,而每个叶结点则对应从根节点到该叶节点所经历的路径所表示的对象的值。结点有两种类型:内部节点和叶节点,内部节点表示一个特征、属性或一个属性上的测试,每个分支代表一个测试输出,叶节点表示一个类别。决策树(DT)一般都是自上而下的来生成的。每个决策或事件(即自然状态)都可能引出两个或多个事件,导致不同的结果。
人工智能之决策树(DT)
决策树(DT)是一种十分常见的分类方法,也称分类树。它是一种监督学习,即给定一堆样本,每个样本都有一组属性和一个类别,这些类别是事先确定的,那么通过学习得到一个分类器,这个分类器能够对新出现的对象给出正确的分类。因此,决策树常常用来解决分类和回归问题。
决策树构成要素:
1)决策结点:用方块结点□表示,是对几种可能方案的选择,即最后选择的最佳方案。如果决策属于多级决策,则决策树的中间可以有多个决策点,以决策树根部的决策点为最终决策方案。
2)方案枝:由结点引出若干条细支,每条细支代表一个方案,称为方案枝
3)状态结点:用圆形结点○表示&#