样本不均衡(2)

不均衡数据集的分类问题是机器学习和模式识别领域的研究热点,是对传统分类的重大挑战

Reference:http://blog.csdn.net/yelbosh/article/details/48375363

1. 重构数据集(重采样/重抽样/重取样)

   过样本:增加少数类的样本来提高少数类的分类性能。

          简单方法:随机复制少数类样本

          改进方法:SMOTE算法; Borderline-SMOTE

   欠样本:减少多数类的样本来提高少数类的分类性能。

          简单方法:随机去掉某些多数类样本来减少多数类的规模。

          改进方法:Condensed Nearest Neighbor Rule; Neighborhood Cleaning Rule; One sided Selection; Tomek Links等【有选择去掉对分类作用不大,远离分类边界或引起数据重叠的多数类样本】

2. 改进分类算法

   代价敏感学习【困难,效果有时不明显】:调整样本分布;元代价方法;代价敏感决策

   支持向量机(SVM):对正类和负类赋予不同的代价,作为SVM的惩罚因子;对支持向量进行裁剪,通过适当牺牲多数类的分类精度来提高少数类的精度。

   单类学习分类

   组合方法:多个分类器组合成一个分类器。AdaBoost是提升算法的代表,给训练集数据的分布迭代加权。改进的算法还有AdaCost; RareBoost算法。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值