![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
blackjakechen
这个作者很懒,什么都没留下…
展开
-
KNN(K近邻)——原理及算法实现
01 基本原理 给定一个数据集,对于新的输入实例,在训练集中找到与该实例最邻近的K个实例,这K个实例中的大多数属于某个类别,则认为该输入实例就属于某个类别。 02 优缺点 优点:易于实现,无需估计参数,无需训练,支持增量学习 缺点:计算量大,分析速度慢(需要扫描全部训练样本并计算距离) 03 KNN的三要素 1.距离度量:衡量特征空间中两个实例点的距离 2.K值得选择:K值过小,近似误差减小,估计...原创 2019-03-13 22:38:42 · 910 阅读 · 0 评论 -
机器学习实践——KNN算法
K近邻算法,只选择样本数据集中前K个最相似的数据,然后根据这K个最相似的数据中出现次数最多的分类,作为新数据的分类。 一下是Python中用KNN算法对sklearn中的鸢尾花数据进行分类。将K值设置为6.可以得到相对平滑的决策边界。 代码如下: import numpy as np from matplotlib.colors import ListedColormap #画图函数 import...原创 2019-03-11 20:56:52 · 299 阅读 · 0 评论 -
机器学习实践——Logistic回归
基本原理如下:根据现有数据对分类边界线建立回归公式,以此进行分类。这里的“回归”一词源于最佳拟合,表示要找到最佳拟合参数。而最佳拟合参数就是在训练分类器时,通过最优化算法获得。逻辑斯蒂回归是一种线性分类器,针对的是线性可分问题。 https://blog.csdn.net/lgb_love/article/details/80592147 https://blog.csdn.net/haochen...原创 2019-03-12 18:08:16 · 213 阅读 · 0 评论