《机器学习西瓜书》学习笔记——第三章_线性模型_类别不平衡问题

类别不平衡是指分类任务中不同类别的训练样例数目相差很大

现有技术大体上有三类做法解决此问题:
1. 欠采样
2. 过采样
3. 阈值移动/再缩放

1. 欠采样

直接对训练集里的反类样例进行欠采样,即去除一些反例使得正反例数目接近,然后再进行学习。欠采样若随机丢弃反例,可能会丢失重要信息。代表性算法:EasyEmsemble,利用集成学习机制,将反例划分为若干个集合,供不同学习器使用,这样对每个学习器来看都进行了欠采样,但全局来看不会丢失重要信息。

2. 过采样

对训练集里的正类样例进行过采样,即增加一些正例,使得正反例数目接近,然后再进行学习。但不能简单对初始正例样本重复采样,否则过拟合严重。代表性算法SMOTE,通过对训练集的正例进行插值,产生额外的正例。

3. 阈值移动

基于原始训练集进行学习,但在用训练好的分类器进行预测时,将 y1y y ′ 1 − y ′ = y1y y 1 − y * m+m m + m − 再缩放考虑入决策过程。

几率 y1y y 1 − y 反应正例可能性和反例可能性之比值,阈值设置为0.5表明分类器任务正反例可能性相同,即分类器决策为:

y1y y 1 − y >1则为正例, y1y y 1 − y 为预测几率.

当训练集中正反例的数目不同时,令 m+ m + 表示正例数目, m m − 表示反例数目,观测几率为 m+m m + m − ,通常假设训练集是真是样本总体的无偏采样,因此观测几率代表真是几率,所以只要预测几率大于观测几率就应判断为正例。即:

y1y y 1 − y > m+m m + m − 则预测为正例

但是,我们的分类器是基于 y1y y 1 − y >1进行决策的,因此对其预测值进行调整,使其基于 y1y y 1 − y >1决策时实际在执行 y1y y 1 − y > m+m m + m − ,所以,需要令:

y1y y ′ 1 − y ′ = y1y y 1 − y * m+m m + m −

这就是类别不平衡学习的基本策略——再缩放

再缩放/再平衡虽然简单,但实际操作并不平凡。因为训练集是真实样本总体的无偏采样的假设,一般并不成立。未必可有效基于训练集观测几率来估计真实几率。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值