决策树(Decision Tree)
是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。
决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。
决策树又称分类树,是一种十分常用的分类方法。
它是一种监督学习,简单来说,就是给定一些样本,每个样本都有一组属性和一个类别,那么通过学习这些样本得到一个分类器,这个分类器能够对新出现的对象进行正确的分类,即为监督学习。
优点:
1.决策树易于理解和实现,它能够直接体现数据的特点,在经过解释后都能简单的理解决策树所代表的意义。
2.决策树能够同时处理数据型和常规型属性,在相对短的时间内能对大型数据源做出可行且效果良好的结果。
3.决策树易于通过静态测试来对模型进行评测,可以测定模型可信度。
缺点:
1.对连续性的字段比较难预测。
2.对有时间顺序的数据,需要很多预处理的工作。
3.当类别太多时,错误可能就会增加的比较快。
4.一般的算法分类的时候,只是根据一个字段来分类。<