![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
决策树
赏花赏月赏秋香
这个作者很懒,什么都没留下…
展开
-
CART决策树python实现
CART决策树代码实现 调包侠: from sklearn import tree import pydotplus def cart_skl_test(): df = pd.read_csv("../dataSet/liquefaction_data_MLE.csv") x = df[['CSR', 'Vs']] y = df['target'] clf = tree.DecisionTreeClassifier() clf.fit(x, y) dot_原创 2020-12-14 18:09:59 · 893 阅读 · 2 评论 -
CART树及其剪枝学习笔记
CART树:分类与回归树 算法由两部分组成: 决策树生成 决策树剪枝 CART算法: CART算法采用一种二分递归分割的技术,算法总是将当前样本集分割为两个字样本集。 生成的决策树的每个非叶结点都只有两个分枝,因此CART算法生成的决策树是结构简洁的二叉树。 CART算法适用于样本特征的取值为是或非的场景。 剪枝过程特别重要,所以在最优决策树生成过程中占有重要地位。有研究表明,剪枝过程的重要性要比树生成过程更为重要。 回归树的生成(平方误差): 设YYY是连续变量,给定训练数据集:D={(x1,y原创 2020-11-21 19:03:04 · 192 阅读 · 0 评论 -
决策树及其剪枝方法学习笔记
决策树 信息量: log21p(xi)log _{2} \frac{1}{p\left(x_{i}\right)}log2p(xi)1 信息熵(不确定性度量),熵为各事件信息量的“数学期望”: 熵越大,随机变量的不确定性越大。 H(p)=−∑i=1npilogpiH(p)=-\sum_{i=1}^{n} p_{i} \log p_{i}H(p)=−i=1∑npilogpi,其中 0≤H(p)≤logn0 \leq H(p) \leq \log n0≤H(p)≤logn 条件熵:表示已知原创 2020-11-21 19:01:16 · 157 阅读 · 1 评论