SVM-SVC分类

SVM优点:

  1. 用于二元和多元分类器、回归和新奇性检测
  2. 良好的预测生成器,提供了鲁棒的过拟合、噪声数据和异常点处理
  3. 成功处理了涉及到很多变量的场景
  4. 当变量比样本还多是依旧有效
  5. 快速,即使样本量大于1万
  6. 自动检测数据的非线性,不用做变量变换

SVM缺点:

  1. 应用在二元分类表现最好,其他预测问题表现不是太好
  2. 变量比样例多很多的时候,有效性降低,需要使用其他方案,例如SGD方案
  3. 只提供预测结果,如果想要获取预测概率,需要额外方法去获取
  4. 如果想要最优结果,需要调参。

使用SVM预测模型的通用步骤

  1. 选择使用的SVM类
  2. 用数据训练模型
  3. 检查验证误差并作为基准线
  4. 为SVM参数尝试不同的值
  5. 检查验证误差是否改进
  6. 再次使用最优参数的数据来训练模型

SVM种类,用途和关键参数表

主要分为三类:1、分类 2、回归 3、异常检测

TIPs:SVM模块包含2个库:libsvm和liblinear,拟合模型时,python和这两个库有数据流,会消耗一部分内存。

如果内存足够,最好能够把SVM的cashe_size参数设置大

  • 7
    点赞
  • 59
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
SVM-RFE(Support Vector Machine - Recursive Feature Elimination)是一种特征选择算法,可以用于提高SVM分类器的性能。在多分类问题中,可以使用一对多(One-vs.-Rest)方法来进行分类,即对每个类别训练一个SVM分类器,并将其余类别视为一个类别。 在Python中,可以使用Scikit-learn库来实现SVM-RFE多分类。下面是使用SVM-RFE进行多分类的Python代码示例: ```python from sklearn.datasets import load_iris from sklearn.svm import SVC from sklearn.feature_selection import RFE from sklearn.multiclass import OneVsRestClassifier # 加载数据集 iris = load_iris() X, y = iris.data, iris.target # 创建SVM分类svc = SVC(kernel="linear", C=1) # 创建一对多分类器 clf = OneVsRestClassifier(svc) # 创建SVM-RFE特征选择器 rfe = RFE(estimator=clf, n_features_to_select=2, step=1) # 运行特征选择器 rfe.fit(X, y) # 输出选定的特征 print("Selected features:", rfe.support_) # 输出特征排名 print("Feature rankings:", rfe.ranking_) ``` 上述代码中,首先加载了鸢尾花数据集,然后创建了一个SVM分类器和一对多分类器。接着,创建了一个SVM-RFE特征选择器,并运行特征选择器,得到选定的特征和特征排名。最终输出了选定的特征和特征排名。 需要注意的是,SVM-RFE算法也是一种随机优化算法,由于每次运行结果可能不同,因此需要多次运行并取平均值来得到更可靠的结果。同时,特征选择的结果可能会因为选择的特征数量和步长的不同而发生变化,因此需要根据具体问题来调整这些参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值