SVM in R

SVM in R

SVM算法最初是用来处理二分类问题的,是一种有监督学习的分类算法。
对于线性可分的二分类问题,我们可以找到无穷多个超平面,将两类样本进行区分。

线性可分SVM所寻找的最优超平面就是要尽可能的远离所有类别的数据点,使得间隔(margin)最大,利用间隔最大化来求得最优超平面。

低维中无法分类的话映射到高维空间,如何映射?核函数映射。

1. 核函数的选取

一般用线性核和高斯核,也就是Linear核与RBF核
需要注意的是需要对数据归一化处理,很多使用者忘了这个小细节
然后一般情况下RBF效果是不会差于Linear
但是RBF会耗时更多,其他同学也解释过了
下面是吴恩达的见解:

  1. 如果Feature的数量很大,跟样本数量差不多,这时候选用LR或者是Linear Kernel的SVM
  2. 如果Feature的数量比较小,样本数量一般,不算大也不算小,选用SVM+Gaussian Kernel
  3. 如果Feature的数量比较小,而样本数量很多,需要手工添加一些feature变成第一种情况

2.常见的核函数

在这里插入图片描述

3.R实现

library(e1071)
plot(iris)

plot(iris$Sepal.Length, iris$Sepal.Width, col=iris$Species)
plot(iris$Petal.Length, iris$Petal.Width, col=iris$Species)

s   <- sample(150, 100)
col <- c("Petal.Length", "Petal.Width", "Species")
iris_train <- iris[s, col]
iris_test  <- iris[-s, col]

svmfit <- svm(Species ~., data = iris_train, kernel = "linear", cost = .1, scale = FALSE)
print(svmfit)
plot(svmfit, iris_train[, col])

tuned <- tune(svm, Species ~., data = iris_train, kernel = "linear",
              ranges = list(cost = c(0.001, 0.01, 0.1, 1, 10, 100)))
summary(tuned)

p <- predict(svmfit, iris_test[, col], type = "class")
plot(p)
table(p, iris_test[, 3])
mean(p == iris_test[, 3])

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Python中,可以使用scikit-learn库来实现支持向量机(SVM)算法[1]。Scikit-learn是一个开源的机器学习库,包含了许多最先进的机器学习算法,其中也包括了SVM算法[2]。 在scikit-learn库中,可以使用svm.SVC类来创建SVM分类器对象[2]。该类的构造函数可以接受多个参数,例如C、kernel、degree、gamma等,用于调整SVM模型的性能和行为。默认情况下,SVC类使用径向基函数(RBF)作为核函数[2]。 下面是一个使用scikit-learn库实现SVM算法绘图的示例代码[3]: ```python from sklearn import svm import numpy as np import matplotlib.pyplot as plt # 准备训练样本 x = [[1, 8], [3, 20], [1, 15], [3, 35], [5, 35], [4, 40], [7, 80], [6, 49]] y = [1, 1, -1, -1, 1, -1, -1, 1] # 创建SVM分类器对象 clf = svm.SVC() # 训练模型 clf.fit(x, y) # 根据训练出的模型绘制样本点 for i in x: res = clf.predict(np.array(i).reshape(1, -1)) if res > 0: plt.scatter(i[0], i[1], c='r', marker='*') else: plt.scatter(i[0], i[1], c='g', marker='*') # 生成随机实验数据 rdm_arr = np.random.randint(1, 15, size=(15, 2)) # 绘制实验数据点 for i in rdm_arr: res = clf.predict(np.array(i).reshape(1, -1)) if res > 0: plt.scatter(i[0], i[1], c='r', marker='.') else: plt.scatter(i[0], i[1], c='g', marker='.') # 显示绘图结果 plt.show() ``` 这段代码演示了如何使用SVM算法在二维平面上绘制分类边界和样本点。其中,红色的点表示预测为正类,绿色的点表示预测为负类[3]。 希望这个例子能够帮助你理解如何在Python中使用SVM算法。如果还有其他问题,请随时提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值