PYTHON建模——决策树用户分群 CART回归树图

PYTHON建模——决策树用户分群 CART回归树图

from sklearn import tree
import pydotplus
from IPython.display import Image
from six import StringIO

Dtree = tree.DecisionTreeRegressor(max_depth=3,min_samples_leaf=500,min_samples_split=5000)
dtree = Dtree.fit(x,y)#变量与标签
with open("dt.dot","w")as f:
    tree.export_graphviz(dtree,out_file = f)
dot_data = StringIO()
tree.export_graphviz(dtree,out_file=dot_data,
                    feature_names = x.columns,
                    class_names = ['y'],
                    filled = True,rounded = True,
                    special_characters = True)
graph = pydotplus.graph_from_dot_data(dot_data.getvalue())
Image(graph.create_png())

注意处理缺失值。
CART决策树也称分类树
变量涉及敏感所以有了万恶之源

在这里插入图片描述

数据中标签记为y,0为好客户,1为坏客户。
决策树将用户群氛围6个群体,使得6个子群之间的差异足够大。

CART回归树的节点预测属性value表示当前子群中目标变量的均值。而当前案例中,目标变量的均值等价于标签为1的样本占当前子群样本的比例。图中可以看出,决策树将原始样本群划分为3个子群,其负样本占比依次为0.072、0.103、0.178、0.096、0.127、0.219。

对于这类直接建模效果不好的数据集,通过决策树分层后在其子空间建模,有可能获取更好的结果。

摘抄自《智能风控》

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值