如何处理分类中的训练数据集不均衡问题

本文参考自:http://blog.csdn.net/heyongluoyao8/article/details/49408131,有删改。

什么是数据不均衡?

在分类中,训练数据不均衡是指不同类别下的样本数目相差巨大。举两个例子:
①在一个二分类问题中,训练集中class 1的样本数比上class 2的样本数的比值为60:1。使用逻辑回归进行分类,最后结果是其忽略了class 2,将所有的训练样本都分类为class 1。
②在三分类问题中,三个类别分别为A,B,C,训练集中A类的样本占70%,B类的样本占25%,C类的样本占5%。最后我的分类器对类A的样本过拟合了,而对其它两个类别的样本欠拟合。
实际上,训练数据不均衡是常见并且合理的情况。举两个例子:
①在欺诈交易识别中,绝大部分交易是正常的,只有极少部分的交易属于欺诈交易。
②在客户流失问题中,绝大部分的客户是会继续享受其服务的(非流失对象),只有极少数部分的客户不会再继续享受其服务(流失对象)。
那么训练数据不均衡会导致什么问题呢?
如果训练集的90%的样本是属于同一个类的,而我们的分类器将所有的样本都分类为该类,在这种情况下,该分类器是无效的,尽管最后的分类准确度为90%。所以在数据不均衡时,准确度(Accuracy)这个评价指标参考意义就不大了。实际上,如果不均衡比例超过4:1,分类器就会偏向于大的类别。

五种解决办法:

1,扩充数据集

首先想到能否获得更多数据,尤其是小类(该类样本数据极少)的数据,更多的数据往往能得到更多的分布信息。

2,对数据集进行重采样

过采样(over-sampling),对小类的数据样本进行过采样来增加小类的数据样本个数,即采样的个数大于该类样本的个数。
欠采样(under-sampling),对大类的数据样本进行欠采样来减少大类的数据样本个数,即采样的个数少于该类样本的个数。
采样算法容易实现,效果也不错,但可能增大模型的偏差(Bias),因为放大或者缩小某些样本的影响相当于改变了原数据集的分布。对不同的类别也要采取不同的采样比例,但一般不会是1:1,因为与现实情况相差甚远,压缩大类的数据是个不错的选择。

3,人造数据

一种简单的产生人造数据的方法是:在该类下所有样本的每个属性特征的取值空间中随机选取一个组成新的样本,即属性值随机采样。此方法多用于小类中的样本,不过它可能破坏原属性的线性关系。如在图像中,对一幅图像进行扭曲得到另一幅图像,即改变了原图像的某些特征值,但是该方法可能会产生现实中不存在的样本。
有一种人造数据的方法叫做SMOTE(Synthetic Minority Over-sampling Technique)。SMOTE是一种过采样算法,它构造新的小类样本而不是产生小类中已有的样本的副本。它基于距离度量选择小类别下两个或者更多的相似样本,然后选择其中一个样本,并随机选择一定数量的邻居样本对选择的那个样本的一个属性增加噪声,每次处理一个属性。这样就构造了许多新数据。
SMOTE算法的多个不同语言的实现版本:
•Python: UnbalancedDataset模块提供了SMOTE算法的多种不同实现版本,以及多种重采样算法。
•R: DMwR package。
•Weka: SMOTE supervised filter。

4,改变分类算法

使用代价函数时,可以增加小类样本的权值,降低大类样本的权值(这种方法其实是产生了新的数据分布,即产生了新的数据集),从而使得分类器将重点集中在小类样本身上。刚开始,可以设置每个类别的权值与样本个数比例的倒数,然后可以使用过采样进行调优。
可以把小类样本作为异常点(outliers),把问题转化为异常点检测问题(anomaly detection)。此时分类器需要学习到大类的决策分界面,即分类器是一个单个类分类器(One Class Classifier)。
由Robert E. Schapire提出的”The strength of weak learnability”方法,该方法是一个boosting算法,它递归地训练三个弱学习器,然后将这三个弱学习器结合起形成一个强的学习器。算法流程如下:
•首先使用原始数据集训练第一个学习器L1。
•然后使用50%在L1学习正确和50%学习错误的那些样本训练得到学习器L2,即从L1中学习错误的样本集与学习正确的样本集中,循环采样一边一个。
•接着,使用L1与L2不一致的那些样本去训练得到学习器L3。
•最后,使用投票方式作为最后输出。
那么如何使用该算法来解决数据不均衡问题呢? 假设是一个二分类问题,大部分的样本都是true类。
•让L1输出始终为true。
•使用50%在L1分类正确的与50%分类错误的样本训练得到L2,即从L1中学习错误的样本集与学习正确的样本集中,循环采样一边一个。因此,L2的训练样本是平衡的。
•接着使用L1与L2分类不一致的那些样本训练得到L3,即在L2中分类为false的那些样本。
•最后,结合这三个分类器,采用投票的方式来决定分类结果,因此只有当L2与L3都分类为false时,最终结果才为false,否则true。
以下方法同样会破坏某些类的样本的分布:
•设超大类中样本的个数是极小类中样本个数的L倍,那么在随机梯度下降(SGD,stochastic gradient descent)算法中,每次遇到一个极小类中样本进行训练时,训练L次。
•将大类中样本划分到L个聚类中,然后训练L个分类器,每个分类器使用大类中的一个簇与所有的小类样本进行训练得到。最后对这L个分类器采取少数服从多数对未知类别数据进行分类,如果是连续值(预测),那么采用平均值。
•设小类中有N个样本。将大类聚类成N个簇,然后使用每个簇的中心组成大类中的N个样本,加上小类中所有的样本进行训练。
如果不想破坏样本分布,可以使用全部的训练集采用多种分类方法分别建立分类器而得到多个分类器,投票产生预测结果。

5,尝试其它评价指标

我们已经知道了“准确度(Accuracy)”这个评价指标在数据不均衡的情况下有时是无效的。因此在类别不均衡分类任务中,需要使用更有说服力的评价指标来对分类器进行评价。
详见: http://blog.csdn.net/login_sonata/article/details/54288653
  • 18
    点赞
  • 133
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
NLP问题分类数据集是用于训练和评估自然语言处理(NLP)模型的数据集,用于将输入的文本分类为预定义的类别或标签。在构建NLP问题分类数据集时,需要收集大量的文本数据,并为每个文本样本提供一个或多个标签,以指示该样本属于哪个类别。这些标签可以是预先定义好的,也可以通过人工标注进行创建。 构建NLP问题分类数据集的过程通常包括以下步骤: 1. 数据收集:从各种来源收集大量的文本数据,例如网络上的新闻文章、社交媒体上的帖子和评论、电子书等。 2. 数据处理:对文本数据进行清洗和预处理,例如去除特殊符号、停用词和标点符号,将文本转换为小写,将文本分割成单词等。 3. 标签分配:为每个文本样本分配一个或多个标签,以指示其所属的类别。标签可以是分类问题的预定义类别,也可以是从数据人工标注得到的。 4. 训练和评估:将数据集划分为训练集和测试集,使用训练集来训练NLP模型,并使用测试集评估模型的性能。 5. 数据增强:在数据集上应用各种数据增强技术,例如同义词替换、近义词插入和重排等,以增加数据的多样性和模型的鲁棒性。 一个好的NLP问题分类数据集应具有以下特点: 1. 多样性:包含来自不同领域、不同风格和不同主题的文本样本,以确保模型在各种情况下都能良好地分类。 2. 均衡性:各个类别的样本数量大致相等,以避免模型对某些类别过度偏向。 3. 真实性:数据集的样本应有真实性,反映真实世界的文本分类问题。 4. 标签一致性:标签的定义清晰明确,不会存在歧义,以便模型正确理解和分类文本。 通过构建和使用NLP问题分类数据集,可以帮助我们开发出更准确和鲁棒的NLP模型,使其能够自动识别和分类文本的不同问题和主题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值