【Matlab】基于k近邻KNN实现多分类预测(Excel可直接替换数据)
1.算法简介
1.1 算法原理
k近邻(k-Nearest Neighbor,KNN)分类算法是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
1.2 算法优点
- 简单、有效﹑复杂度低、无须参数估计、无须训练。
- 精度高,对噪声不敏感。
- 由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。
- 特别适合于多分类问题,其表现性能比SVM效果更好。
1.3 算法缺点
- 对计算样本分类时,计算量大,每一个待分类的样本要与全体已知样本计算距离,才能得到k个最邻近点。
- 可解释性差,无法像决策树算法一样有效解释。
- 样本不均衡时,如果一个类样本容量很大,而其他样本容量很小时,有可能导致当输入一个新样本时,该样本的k个邻近样本中很可能该类占大多数。
- 该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用该算法容易产生误分。
- k值的选取对分类效果有较大影响。
1.4 算法步骤
基于KN