Decision tree | |
原理 | 选择属性判断结点:IG越大,就在越上面 信息获取量(Information Gain):Gain(A) = Info(D) - Infor_A(D)
|
过程 | (1)读整行代码 (2)分为特征、标签 (3)每行的特征通过布尔来显示(比如age有youth、middle_age、senor,就可以设置为0、0、1,,将一维转为三维) (4)调用DecisionTreeClassifier(criterion=’entropy’)即可 (5)也可通过改变布尔数据来度额定输出 |
调试 | (1)AttributeError: '_csv.reader' object has no attribute'next' → reader.next()改为next(reader) (2)Iterator should return strings ,not bytes → “rb”改为“rt”即可
|
优点 | 直观,便于理解,小规模数据集有效
|
缺点 | (1) 处理连续变量不好 (2)类别较多时,错误增加的比较快 (3)可规模性一般
|
Decision tree
最新推荐文章于 2024-04-29 20:15:23 发布