非平衡数据流学习——数据层面的算法

非平衡数据流学习——数据层面的算法

Undersampling Naïve Bayes

论文: Nguyen, H.M., Cooper, E.W., Kamei, K.: Online learning from imbalanced data streams. In: Third International Conference of Soft Computing and Pattern Recognition, SoCPaR 2011, Dalian, 14–16 Oct 2011, pp. 347–352 (2011)
思想:训练学习器时,对于minority类,均更新分类器,而对于majority类,以一定概率(非平衡率)来更新分类器。
缺点:假设minority类一直是minority,不存在类别关系的动态变化

Generalized Over-sampling Based Online Imbalanced Learning Framework (GOS-IL)

论文:Barua, S., Islam, M.M., Murase, K.: GOS-IL: a generalized over-sampling based online imbalanced learning framework. In: Neural Information Processing – 22nd International Conference, ICONIP 2015, Proceedings, Part I, Istanbul, 9–12 Nov 2015, pp. 680–687 (2015)
思想:对每一类保存三个参数:

  1. 当前分类器分错的数据项
  2. 当前类已经收到的数据数目
  3. 当前类用于更新的数据数目
    该算法对分类错误的数据项进行上采样,而且只在非平衡率到达一定水平,并且分类器的错误率到一定的threshold时才进行上采样。
    缺点:不处理概念飘移和类别关系的动态变化

Sequential SMOTE

论文

  1. Mao, W., Wang, J., Wang, L.: Online sequential classification of imbalanced data by combining extreme learning machine and improved SMOTE algorithm. In: 2015 International Joint Conference on Neural Networks, IJCNN 2015, Killarney, 12–17 July 2015, pp. 1–8 (2015)
  2. Mao, W., Jiang, M., Wang, J., Li, Y.: Online extreme learning machine with hybrid sampling strategy for sequential imbalanced data. Cogn. Comput. 9(6), 780–800 (2017)
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值