不平衡数据处理之SMOTE、Borderline SMOTE和ADASYN详解及Python使用

  不平衡数据在金融风控、反欺诈、广告推荐和医疗诊断中普遍存在。通常而言,不平衡数据正负样本的比例差异极大,如在Kaggle竞赛中的桑坦德银行交易预测和IEEE-CIS欺诈检测数据。对模型而言,不均衡数据构建的模型会更愿意偏向于多类别样本的标签,实际应用价值较低,如下图所示,为在不均衡数据下模型预测的概率分布。
不均衡数据下模型预测的概率分布
  不平衡数据的处理方法,常见方法有欠采样(under-sampling)和过采样(over-sampling)、在算法中增加不同类别的误分代价等方法。其中,过采样中的SMTOE、Borderline SMOTE和ADASYN是实现简单且常见的处理方法。

1 SMOTE

  论文地址http://xueshu.baidu.com/usercenter/paper/show?paperid=28300870422e64fd0ac338860cd0010a&site=xueshu_se
  SMOTE(Synthetic Minority Oversampling Technique)合成少数类过采样技术,是在随机采样的基础上改进的一种过采样算法。实现过程如下图所示:
在这里插入图片描述
  首先,从少数类样本中选取一个样本xi。其次,按采样倍率N,从xi的K近邻中随机选择N个样本xzi。最后,依次在xzi和xi之间随机合成新样本,合成公式如下:

x n = x i + β × ( x z i − x i ) x_{n}=x_{i}+\beta\times \left ( x_{zi} -x_{i} \right ) xn=xi+β×(xzixi)

  SMOTE实现简单,但其弊端也很明显,由于SMOTE对所有少数类样本一视同仁,并未考虑近邻样本的类别信息,往往出现样本混叠现象,导致分类效果不佳。

SMOTE Python使用
  Python库中Imblearn是专门用于处理不平衡数据,imblearn库包含了SMOTE、SMOTEENN、ADASYN和KMeansSMOTE等算法。以下是SMOTE在Imblearn中使用的案例。

from collections import Counter
from sklearn.datasets import make_classification
from imblearn.over_sampling import SMOTE
X, y = make_classification(n_classes=2, class_sep=2,
                           weights=[0.1, 0.9], n_informative=2, n_redundant=0, flip_y=0,
                           n_features=2, n_clusters_per_class=1, n_samples=100,random_state=10)
print('Original dataset shape %s' % Counter(y))

sm = SMOTE(random_state=42)
X_res, y_res = sm.fit_resample(X, y)
print('Resampled dataset shape %s' % Counter(y_res))

SMOTE采样前后对比
在这里插入图片描述在这里插入图片描述

2 Borderline SMOTE

  论文地址https://sci2s.ugr.es/keel/keel-dataset/pdfs/2005-Han-LNCS.pdf
  Borderline SMOTE是在SMOTE基础上改进的过采样算法,该算法仅使用边界上的少数类样本来合成新样本,从而改善样本的类别分布。
  Borderline SMOTE采样过程是将少数类样本分为3类,分别为SafeDangerNoise,具体说明如下。最后,仅对表为Danger的少数类样本过采样。
  Safe,样本周围一半以上均为少数类样本,如图中点A
  Danger:样本周围一半以上均为多数类样本,视为在边界上的样本,如图中点B
  Noise:样本周围均为多数类样本,视为噪音,如图中点C

在这里插入图片描述

  Borderline-SMOTE又可分为Borderline-SMOTE1和Borderline-SMOTE2,Borderline-SMOTE1在对Danger点生成新样本时,在K近邻随机选择少数类样本(与SMOTE相同),Borderline-SMOTE2则是在k近邻中的任意一个样本(不关注样本类别)

Borderline-SMOTE Python使用

from collections import Counter
from sklearn.datasets import make_classification
from imblearn.over_sampling import BorderlineSMOTE
X, y = make_classification(n_classes=2, class_sep=2,
                           weights=[0.1, 0.9], n_informative=2, n_redundant=0, flip_y=0,
                           n_features=2, n_clusters_per_class=1, n_samples=100, random_state=9)
print('Original dataset shape %s' % Counter(y))
sm = BorderlineSMOTE(random_state=42,kind="borderline-1")
X_res, y_res = sm.fit_resample(X, y)
print('Resampled dataset shape %s' % Counter(y_res))

Borderline SMOTE 采样前后对比
在这里插入图片描述在这里插入图片描述

3 ADASYN

  论文地址https://sci2s.ugr.es/keel/pdf/algorithm/congreso/2008-He-ieee.pdf
  ADASYN (adaptive synthetic sampling)自适应合成抽样,与Borderline SMOTE相似,对不同的少数类样本赋予不同的权重,从而生成不同数量的样本。具体流程如下:

  步骤1:计算需要合成的样本数量,公式如下:

G = ( m l − m s ) × β G=\left ( m_{l}-m_{s} \right )\times \beta G=(mlms)×β

  其中,ml为多数类样本数量,ms为少数类样本数量,β∈[0,1]随机数,若β等于1,采样后正负比例为1:1。
  步骤2:计算K近邻中多数类占比,公式如下:

r i = Δ i / K r_{i}=\Delta _{i}/K ri=Δi/K

  其中,∆i为K近邻中多数类样本数,i = 1,2,3,……,ms
  步骤3:对ri标准化,公式如下:

r ^ i = r i / ∑ i = 1 m s r i \hat{r}_{i}=r_{i}/\sum_{i=1}^{m_{s}}r_{i} r^i=ri/i=1msri

  步骤4:根据样本权重,计算每个少数类样本需生成新样本的数目,公式如下:

g = r ^ i × G g=\hat{r}_{i}\times G g=r^i×G

  步骤5:根据g计算每个少数样本需生成的数目,根据SMOTE算法生成样本,公式如下:

s i = x i + ( x z i − x i ) × λ s_{i}=x_{i}+\left ( x_{zi}-x_{i} \right )\times \lambda si=xi+(xzixi)×λ

  其中,si为合成样本,xi是少数类样本中第i个样本,xzi是xi的K近邻中随机选取一个少数类样本 λ∈[0,1]的随机数。

ADASYN Python使用

from collections import Counter
from sklearn.datasets import make_classification
from imblearn.over_sampling import ADASYN
X, y = make_classification(n_classes=2, class_sep=2,
                           weights=[0.1, 0.9], n_informative=3, n_redundant=1, flip_y=0,
                           n_features=20, n_clusters_per_class=1, n_samples=1000,
                           random_state=10)
print('Original dataset shape %s' % Counter(y))
ada = ADASYN(random_state=42)
X_res, y_res = ada.fit_resample(X, y)
print('Resampled dataset shape %s' % Counter(y_res))

ADASYN 采样前后对比
在这里插入图片描述在这里插入图片描述

Borderline-SMOTE(边界SMOTE)是一种数据增强技术,特别是在处理类别平衡的数据集时特别有用。它是在SMOTE(Synthetic Minority Over-sampling Technique)的基础上发展起来的,针对的是SMOTE可能过度合成多数类附近样本的问题,尤其是那些靠近决策边界的少数类样本。 原理: - SMOTE会随机选择少数类的一个样本,并在该样本与其k个最近邻(通常k=5)之间生成新的合成样本。 - Borderline-SMOTE则更倾向于合成那些位于决策边界附近的少数类样本。它首先找出离决策边界最近的少数类样本,然后在其与邻近的多数类样本之间的线段上均匀插值生成新样本,这有助于保持合成样本的真实边界特征。 代码示例: 由于代码较长且依赖于特定库,这里给出简要步骤: 1. 导入库(比如Python的scikit-learnimblearn): ```python from imblearn.over_sampling import BorderlineSMOTE ``` 2. 初始化并应用算法: ```python borderline_smote = BorderlineSMOTE() X_resampled, y_resampled = borderline_smote.fit_resample(X_train, y_train) ``` 其中,`X_train` `y_train` 分别是训练数据集对应的标签。 应用场景: - 医疗领域,如疾病诊断,少数疾病的病例可能会导致模型偏向多数病症,Borderline-SMOTE有助于改善分类器对罕见病的识别能力。 - 金融风险评估,欺诈交易与正常交易的比例严重失衡,通过Borderline-SMOTE平衡数据,提高异常检测模型的准确性。 - 图像识别计算机视觉,尤其是在目标检测或识别任务中,类别平衡可能导致某些类别的检测性能降低,Borderline-SMOTE能帮助提高这类样本的代表性。
评论 38
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值