![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
python
weixin_45170671
这个作者很懒,什么都没留下…
展开
-
Adaboost
AdaBoost (1)收集数据:可以使用任何方法; (2)准备数据:依赖于所使用的若分类器类型; (3)分析数据:可以使用任意方法 (4)训练算法:AdaBoost的大部分时间都用在训练上,分类器将多次在同一数据集上训练若分类器; (5)测试算法:计算分类的错误率; (6)使用算法:同SVM一样,AdaBoost预测的两个类别中的一个,如果想要把它应用到多个类的场合,那么就像多类SVM中的做法一...原创 2019-12-14 00:16:47 · 77 阅读 · 0 评论 -
kNN 、决策树
第二章 k-近邻算法(kNN) ** ** (1)概述 简单的说,k-近邻算法采用测量不同特征值之间的距离方法进行分类。 (2)基本原理 存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的 特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分...原创 2019-11-16 19:48:36 · 293 阅读 · 0 评论 -
支持向量机
分隔超平面(separating hyperplane):将数据集分隔开来的直线,简称分割面。 间隔:点到分隔面的距离。 支持向量(support vector):离分隔超平面最近的那些点。 显然,构建分类器的时候,数据点离决策边界越远,那么其最后的预测结果也就越可信。即让间隔尽可能大,提高分类器健壮性。 ...原创 2019-12-03 09:46:22 · 102 阅读 · 0 评论