特征选择,构造决策树,修剪决策树 损失函数 基本知识 熵: H(X)=−∑ni=1pilogpi 条件熵: H(Y|X)=∑ni=1piH(Y|X=xi) 信息增益: g(D,A)=H(D)−H(D|A) A:特征D:数据集信息增益比: gR(D,A)=g(D,A)HA(D),HA(D)=−∑i=1n|Di|Dlog|Di|D 用信息增益选区特征倾向于选取取值多的特征,用信息增益比可以解决这个问题 ID3算法