机器学习实验三:支持向量机模型

系列文章目录

  1. 机器学习实验一:线性回归
  2. 机器学习实验二:决策树模型
  3. 机器学习实验三:支持向量机模型
  4. 机器学习实验四:贝叶斯分类器
  5. 机器学习实验五:集成学习
  6. 机器学习实验六:聚类


一、实验目的

(1)了解支持向量机基本知识;
(2)掌握 SVM 分类器的设计方法;
(3)学会建立 SVM 分类器来实现分类预测,并进行结果分析。

二、实验原理

支持向量机旨在求一个分离超平面。这个超平面使得离它最近的点能够最远。

三、实验内容

使用 Python 读取数据集信息, 使用鸢尾花的花萼(sepal)和花瓣(petal)
的长和宽数据,并利用 sklearn 训练支持向量机模型,随后使用 SVM 实现分类预
测,判断样本属于山鸢尾(Iris Setosa)、变色鸢尾(Iris Versicolor)还是
维吉尼亚鸢尾(Iris Virginica)。评价分类结果 TP、FN、FP、TN 以及精确率和
召回率。
加入松弛因子后,与未加松弛因子之前效果做对比。

四、实验步骤

1. 训练集和测试数据集划分

导入鸢尾花数据集,将数据集按 80%训练集,20%测试集的比例进行分割。

2. 评价分类结果 TP、FN、FP、TN 以及精确率和召回率

FN:被判定为负样本,但事实上是正样本;
FP:被判定为正样本,但事实上是负样本;
TN:被判定为负样本,事实上也是负样本;
TP:被判定为正样本,事实上也是正样本;
精确率 Precision:针对模型判断出的所有正例(即 TP + FP)而言,其中真
正例 TP 占的比例。
Precision = TP /( TP + FP )
召回率 Recall:针对数据集中的所有正例(即 TP + FN)而言,模型正确判
断出的正例 TP 占数据集中所有正例的比例,FN 表示被模型误认为是负例但实
际是正例的数据。
Recall = TP/( TP + FN )

3. 加入松弛因子后,与未加松弛因子之前效果做对比。

假设样本数为 n,原先对样本的分类是yi( 𝑤 ⋅ 𝑥𝑖 + b) ≥ 1 ( i = 1, 2, … ,
n ),则引入松弛因子 ξ ≥ 0后对样本分类的要求变为 yi
( 𝑤 ⋅ 𝑥𝑖 + b) ≥ 1 − 𝜉𝑖 ( i
= 1, 2, …, n ),松弛因子的意义是引入一定的容错性。

五、代码参考

import numpy as np
from sklearn import svm, datasets
from sklearn.model_selection import train_test_split
from sklearn.multiclass import OneVsRestClassifier
from sklearn.preprocessing import label_binarize
iris = datasets.load_iris()
X = iris.data
y = iris.target
random_state = np.random.RandomState(0)
n_samples, n_features = X.shape
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.2, random_state=66)
# 设定参数
classifier = OneVsRestClassifier(svm.SVC(C=100000, kernel='linear', probability=True, 
random_state=random_state))
classifier.fit(X_train, y_train)
y_pred = classifier.predict(X_test)
def func(precited, expected):
 res = (precited ^ expected) 
 r = np.bincount(res)
 tp_list = (precited & expected)
 fp_list = (precited & (~expected))
 tp_list = tp_list.tolist()
 fp_list = fp_list.tolist()
 TP = tp_list.count(1)
 FP = fp_list.count(1)
 TN = r[0] - TP
 FN = r[1] - FP
 Recall = TP / (TP + FN)
 Precesion = TP / (TP + FP)
 return TP, FP, TN, FN, Recall, Precesion
y_test1 = label_binarize(y_test, classes=[0, 1, 2])
y_pred1 = label_binarize(y_pred, classes=[0, 1, 2])
print(y_pred1[..., 0], y_test1[..., 0])
tp, fp, tn, fn, recall, pre = func(y_pred1[..., 0], y_test1[..., 0])
recall = format(recall, '0.2f')
pre = format(pre, '0.2f')
print(f"type1:recall = {recall} precision ={pre}")
tp, fp, tn, fn, recall, pre = func(y_pred1[..., 1], y_test1[..., 1])
recall = format(recall, '0.2f')
pre = format(pre, '0.2f')
print(f"type2:recall = {recall} precision = {pre}")
tp, fp, tn, fn, recall, pre = func(y_pred1[..., 2], y_test1[..., 2])
recall = format(recall, '0.2f')
pre = format(pre, '0.2f')
print(f"type3:recall = {recall} precision = {pre}")

修改松弛因子
即修改如下语句中的参数 C
classifier = OneVsRestClassifier(svm.SVC(C=100, kernel=‘linear’, probability=True,
random_state=random_state)

总结

以上就是今天要讲的内容,机器学习实验三:支持向量机模型

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
支持向量机是一种常用的机器学习算法,用于解决分类和回归问题。在实验室中,支持向量机算法可以用于许多不同的领域和应用,例如: 1. 图像分类:支持向量机可以用于对图像进行分类,例如将数字手写体图像分类为不同的数字。 2. 文本分类:支持向量机可以用于对文本进行分类,例如将新闻文章分类为不同的主题。 3. 信号处理:支持向量机可以用于对信号进行分类和识别,例如将声音信号分类为不同的语音。 4. 生物医学研究:支持向量机可以用于对生物数据进行分类和预测,例如诊断疾病或预测药物效果。 在进行支持向量机算法实验时,需要掌握一些基本的技能和知识,例如: 1. 数据准备:准备好用于训练和测试支持向量机算法的数据集,并进行数据清洗和预处理。 2. 模型选择:选择适当的支持向量机模型和参数,以最大限度地提高分类或回归的准确性。 3. 模型评估:使用适当的评估指标来评估支持向量机算法的性能,例如准确率、召回率、F1分数等。 4. 可视化分析:使用可视化工具来分析支持向量机算法的结果和决策边界,以更好地理解算法的工作原理。 总之,支持向量机算法是一种强大的机器学习工具,可以在各种应用领域中发挥作用。在实验室中,学生们可以通过实践支持向量机算法来深入了解其工作原理和应用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Magic171

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值