开个头·· 如何提高 Class imbalance DataSet的模型效果

自发想起的几个办法,试过了,都没什么用:

1. 圈出比较有可能的,然后对剩下的进行再次挑选。

但是尝试后发现并不是个很好的方法,虽然第一次决策树过滤了很多的不相干的,但是对剩下的再进行建模的准确率和覆盖率都很低,几乎等于直接用一次决策树,但是仔细调节正负样本比例后的结果。


2. 对首次得到的概率作为特征进入输入。


下载了一些 Class Imbalance Problem的论文,正在尝试使用其中的办法,看看是否能够提高模型准确率和查全率


to be continue 20150825


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值