机器学习:决策树

信息熵:

变量X有多种取值x1,x2,x3...xi...xn,

现有一样本,用各种取值的频率近似作为概率用,求得:

p1,p2,p3...pi...pn

这里的log可以以2,10,e为底,反正后面要用的是熵的差值或比值。

信息增益:

g(D,A)=样本原本熵H(D)-用A特征分类后的熵H(D|A)

H(D|A)算法:假设D被A分为多组,D1,D2...Di...,每组的样本数量n1,n2...ni...

H(D|A)=∑(ni/n)·H(Di)

信息增益缺点:会偏向取值多的特征

信息增益率:



实质是g(D,A)乘以一个惩罚系数

A取值越多,这个惩罚系数越小,

缺点:偏向取值少的特征。

gini不纯度:只能处理二分类特征,

                   对于多分类特征,用one-against-rest,先找到一个gini最小的分点,变为二分类。

预剪枝:树生成过程中,对每个结点判断是否应该作为叶结点。

后剪枝:完整树生成后,从叶到根逐个非叶结点判断是否应该作为叶结点。

连续值处理:离散化

                    方法:值排序,相邻两两相加,得到的点作为候选划分点,找到一个信息增益最高的点作为划分点。

缺失值处理:每次计算只在本特征非缺失样本中进行。



评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值