CV学习第五课——SVM、决策树、KNN以及K-Means等其他机器学习工具

1.SVM(支持向量机)

以下内容转载文章:[SVM支持向量机入门及数学原理]https://blog.csdn.net/Datawhale/article/details/94598943

1.1简介

SVM名字由来:
在支持向量机中,距离超平面最近的且满足一定条件的几个训练样本点被称为支持向量。
图中有红色和蓝色两类样本点。黑色的实线就是最大间隔超平面。在这个例子中,A,B,C 三个点到该超平面的距离相等。
注意,这些点非常特别,这是因为超平面的参数完全由这三个点确定。该超平面和任何其他的点无关。如果改变其他点的位置,只要其他点不落入虚线上或者虚线内,那么超平面的参数都不会改变。A,B,C 这三个点被称为支持向量(support vectors)。
而“机”主要是machine这个词翻译的有点唬人,如果翻译为“算法”就舒服多了。
在这里插入图片描述

支持向量机(support vector machines)是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。由简至繁的模型包括:

  • 当训练样本线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机;
  • 当训练样本近似线性可分时,通过软间隔最大化,学习一个线性支持向量机;
  • 当训练样本线性不可分时,通过核技巧和软间隔最大化,学习一个非线性支持向量机;

1.2线性可分支持向量机

给定训练样本集 D = ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m ) D = ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m ) D=(x1,y1),(x2,y2),⋯,(xm,ym)D=(x1,y1),(x2,y2),⋯,(xm,ym) D=(x1,y1)(x2,y2),(xm,ym)D=(x1,y1)(x2,y2),(xm,ym),其中 y i ∈ ( − 1 , + 1 ) , y i ∈

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
支持向量机(Support Vector Machine,SVM)是一种分类和回归的机器学习算法。SVM的主要思想是将样本映射到高维特征空间,使得样本在各个类别之间能够有更好的可分性。然后,在特征空间中找到最优的分割超平面,使得不同类别的样本能够被最大程度地分开。SVM具有较高的准确性,并且在处理小样本、非线性问题时表现优秀。 XGBoost是一种集成学习算法,它通过将多个弱分类器相互组合,形成一个较强的分类器。XGBoost是基于梯度提升决策树(Gradient Boosting Decision Tree,GBDT)算法的改进版本,利用了梯度提升的思想,通过迭代训练多个决策树,不断优化模型。XGBoost具有较高的准确性和对异常值的鲁棒性,且能够处理大规模数据集。 K-means是一种聚类算法,其基本思想是将样本分为K个类别,每个样本属于与其最近的类别。K-means的核心步骤是不断迭代更新类别的中心点,直到最终收敛。K-means适用于处理无监督学习任务,能够发现数据中隐藏的分组结构,对于图像分割、文本聚类等应用场景具有较好的效果。 K最近邻(K-nearest neighbors,KNN)是一种分类和回归算法。KNN的基本思想是通过测量样本间的距离来进行分类或回归预测。对于分类任务,KNN会计算待预测样本与训练集中所有样本的距离,然后根据最近的K个邻居的标签进行投票,将待预测样本归类到得票最多的类别。KNN的特点是简单易实现,但对数据噪声敏感,对于大规模数据集计算开销较大。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值