k最近邻分类;matlab_机器学习笔记 03 三张图带你看懂K近邻法与支持向量机的原理...

本文介绍了K最近邻法(KNN)和支持向量机法(SVM)的非线性分类原理,强调了它们在放弃线性假设后的复杂性和潜在优势。KNN是一种基于实例的学习,依赖于最近邻的投票来决定分类,而SVM通过寻找最大边际的超平面来优化分类。文中通过可视化例子帮助理解两类方法,并讨论了k值选择、距离计算、支持向量等关键概念。
摘要由CSDN通过智能技术生成

题记:对于大多数医生来讲,理解前面两篇机器学习的内容可能有难度,学习重在于积累,“不积跬步,无以至千里”。笔者本人也是从一句R语言代码也读不懂的菜鸟一步一步走过来。坚持学习,总会有收获。今天这篇读书笔记我们将介绍两种非线性分类技术:K最近邻法(KNN)与支持向量机法(SVM)的原理。本文参考Cory Lesmeister博士主编《Mastering Machine Learning with R》(第2版)。有部分改动。

本文是个人的读书笔记,仅限于学习交流使用,勿做他用。我只是一个知识的搬运工。如有侵权,请联系本号,本号将尽快删除。

1. 背景知识

K最近邻法(KNN)与支持向量机法(SVM)这两种技术放弃了线性假设,理解起来要比我们之前讨论的那些技术复杂。但这样不一定能保证得到更好的预测结果,而且向非专业人士解释模型也会有一点问题,计算效率也低。正确使用这些技术时,可以作为其他分类技术和工具的补充。除了能够解决分类问题之外,它们还可以用于预测连续型的结果。

2. K最近邻法

在之前的工作中,我们建立的模型具有系数。换句话说,要对模型包含的特征进行参数估计。本章KNN中没有参数,因为这种学习方法是所谓的“基于实例的学习”。简言之,保存被标记过的“实例”学习其输入和相应的输出标记,直至一个新的输入模式请求一个输出值(Battiti和Brunato,2014,p.11)。这种方法通常称为懒惰学习,因为不产生具体的模型参数。用于训练的实例本身就是知识。要预测任

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值