SVM,SVC,SVC之间的区别

今天开始做svm的入门项目,训练时用到的代码如下

#对数据进行训练
from sklearn.svm import SVC
classifier=SVC(random_state=0)
classifier.fit(x_train,y_train)
#预测结果
y_pred=classifier.predict(x_test)

其中,调用了sklearn中的SVC,整理了一下他们的关系:

SVM=Support Vector Machine 是支持向量
SVC=Support Vector Classification就是支持向量机用于分类
SVR=Support Vector Regression.就是支持向量机用于回归分析

SVM的算法模型有:

svm.LinearSVC Linear Support Vector Classification.
svm.LinearSVR Linear Support Vector Regression.
svm.NuSVC Nu-Support Vector Classification.
svm.NuSVR Nu Support Vector Regression.
svm.OneClassSVM Unsupervised Outlier Detection.
svm.SVC C-Support Vector Classification.
svm.SVR Epsilon-Support Vector Regression.

05-27
`svm.SVC` 是 Scikit-learn 中 SVM 模型的一个实现类。SVC 的全称是 Support Vector Classification,即支持向量分类器。它是一种基于最大间隔的分类算法,通过将训练数据集投影到高维空间中,找到能够将不同类别的数据分隔开的超平面,从而实现分类。 SVC 可以使用不同的核函数来处理线性和非线性分类问题。常用的核函数有: - 线性核函数:使用线性超平面将数据分隔开,适用于线性分类问题。 - 多项式核函数:通过将数据映射到高维空间中,使用多项式函数定义超平面,适用于非线性分类问题。 - 高斯核函数:也称为径向基函数(RBF),通过将数据映射到高维空间中,使用高斯函数定义超平面,适用于非线性分类问题。 SVC 的常用参数如下: - kernel:核函数,默认为 RBF 核函数。 - C:惩罚系数,用于控制分类器的错误率和间隔,值越小表示允许错误率越高,值越大表示希望分类器尽可能减小错误率。默认为 1.0。 - gamma:RBF 核函数的参数,控制数据点映射到高维空间后的分布,值越大表示映射后的数据点分布越密集,决策边界越不规则。默认为 auto,表示自动根据训练数据估计 gamma 的值。 - degree:多项式核函数的参数,表示多项式的次数。默认为 3。 - coef0:多项式核函数和 Sigmoid 核函数的参数,表示常数项。默认为 0.0。 SVC 的使用方法与其他 Scikit-learn 中的模型类似。首先,需要导入 `svm` 模块,然后创建一个 SVC 对象,设置相应的参数,最后调用 `fit` 方法在训练数据上拟合模型。例如: ```python from sklearn import svm # 创建一个 SVC 对象,使用默认参数 clf = svm.SVC() # 在训练数据上拟合模型 clf.fit(X_train, y_train) ``` 其中,`X_train` 表示训练数据的特征矩阵,`y_train` 表示训练数据的目标变量。拟合完成后,就可以使用模型对新的测试数据进行分类了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值