SVM 解决类别不平衡问题(scikit_learn)

在支持向量机中, C C 是负责惩罚错误分类数据的超参数。

解决数据类别不平衡的一个方法就是使用基于类别增加权重的C

Cj=Cwj C j = C ∗ w j

其中, C C 是误分类的惩罚项,wj是与类别 j j 的出现频率成反比的权重参数,Cj 就是类别 j j 对应的 加权C

主要思路就是增大误分类 少数类别 带来的影响,保证 少数类别 的分类正确性,避免被多数类别掩盖

在scikit-learn 中,使用 svc 方法时,可以通过设置参数

class_weight=’balanced’

实现上述加权功能

参数‘balanced’ 会自动按照以下公式计算权值:

wj=nknj w j = n k n j

其中, wj w j 为类别 j j 对应权值,n 为数据总数, k k 为类别数量,即数据有k 个种类, nj n j 是类别 j j <script type="math/tex" id="MathJax-Element-17">j</script> 的数据个数

0.导入库

# Load libraries
from sklearn.svm import SVC
from sklearn import datasets
from sklearn.preprocessing import StandardScaler
import numpy as np

1、加载Iris Flower 数据集

#只加载两个类别的数据,两类,各50个
iris = datasets.load_iris()
X = iris.data[:100,:]
y = iris.target[:100]

2.不均衡化数据集

# 删掉前四十个数据,数据总数变为60个
X = X[40:,:]
y = y[40:]

# 类别为0的类别不变,类别不为0的全部变为1
y = np.where((y == 0), 0, 1)
y
array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
       1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
       1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1])

可以看到,有60个数据,10个为类别0,50个为类别1

3.特征标准化

# Standarize features
scaler = StandardScaler()
X_std = scaler.fit_transform(X)

4.使用加权类别训练SVM分类器

# Create support vector classifier
svc = SVC(kernel='linear', class_weight='balanced', C=1.0, random_state=0)

# Train classifier
model = svc.fit(X_std, y)

翻译自Chris Albon 博客
原文地址

  • 5
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值