机器学习篇——KNN算法基础

一、简介:

        KNN(K-近邻,K-Nearest Neighbors)算法是一种基本的分类与回归方法,属于监督学习。其核心思想是:给定一个样本,通过计算其与训练集中所有样本的距离,找到距离最近的K个样本,然后根据这K个样本的类别或值来预测该样本的类别或值。

 主要步骤
1. 计算距离:使用欧氏距离、曼哈顿距离等方法计算待预测样本与训练集中每个样本的距离。


2. 选择K个最近邻:根据距离排序,选择距离最近的K个样本。


3. 类型应用
   - 分类:通过多数投票确定待预测样本的类别。
   - 回归:通过K个最近邻的平均值预测待预测样本的值。

三、简单的实现

1.导入相关的库:

 首先,我们要导入两个重要的库,numpy 和 matplotlib

import matplotlib.pyplot as plt
import numpy as np
from sklearn.neighbors import KNeighborsClassifier

2.读取数据,并将数据切片

随后,我们获取最后一列的数据,并依据他们的状态分类

data = np.loadtxt('datingTestSet2.txt')

data_1=data[data[: ,-1] == 1]
data_2=data[data[: ,-1] == 2]
data_3=data[data[: ,-1] == 3]

3.实现数据可视化

创建画布:

fig = plt.figure()

将画布转化为3d类型:

ax=plt.axes(projection='3d')

绘制散点图,并显示:

ax.scatter(data_1[:,0],data_1[:,1],zs=data_1[:,2],c='#000000',marker='o')
ax.scatter(data_2[:,0],data_2[:,1],zs=data_2[:,2],c='#AFEEEE',marker='^')
ax.scatter(data_3[:,0],data_3[:,1],zs=data_3[:,2],c='#A52A2A',marker='+')

ax.set(xlabel='X',ylabel='Y',zlabel='Z')
plt.show()

结果显示:

4.建立模型

数据测试完毕后,再次选取要求的数据:

X=data[ : , :-1]
y=data[ : , -1]

开始建立模型,并训练:

neigh=KNeighborsClassifier(n_neighbors=10)           # 创建模型对象
neigh.fit(X,y)                                       # fit训练模型

测试模型:

predict_data = [[9744,11.453225,0.732532],
                [131444,0.213144,0.13141],
                [231444,11.313434,1.52424]]

print(neigh.predict(predict_data))

测试结果显示:

总结:
        KNN算法通过计算样本间的距离进行分类或回归,虽然简单,但在实际应用中需注意K值选择和数据标准化等问题。

注:本文仅代表个人观点,若有错误,欢迎指正

### KNN算法机器学习中的实现与应用 #### 一、KNN算法简介 K近邻(K-Nearest Neighbor, KNN)是一种基本分类与回归方法。该算法核心思想在于通过计算待测样本与训练集中各个样本的距离,选取距离最小的前K个邻居,并依据这些邻居信息来进行决策。对于分类问题而言,则是根据多数表决原则决定新实例所属类别;而对于回归问题来说,则通常采用这K个最接近的数据点的目标属性平均值作为预测结果。 #### 二、R语言下的具体实践案例 针对鸢尾花数据集的应用展示了如何利用基础函数完成整个流程而无需依赖额外包的支持[^2]。在这个例子中,通过对不同特征维度间欧氏距离或其他度量方式的选择实现了对未知样本的有效识别。这种做法不仅有助于理解原理本身,同时也锻炼了编程技巧以及解决实际问题的能力。 ```r # 加载必要的库并读入数据 library(ggplot2) data(iris) head(iris) # 数据预处理... set.seed(1234) trainIndex <- sample(seq_len(nrow(iris)), size = floor(.7 * nrow(iris))) trainingData <- iris[trainIndex, ] testingData <- iris[-trainIndex, ] # 定义knn函数用于后续调用 knnPredict <- function(trainSet, testInstance, labels, k){ distances <- sqrt(rowSums((t(t(trainSet[,1:4]) - as.numeric(testInstance)))^2)) sortedDistIndices <- order(distances)[1:k] classCounts <- table(labels[sortedDistIndices]) return(names(which.max(classCounts))) } predictions <- sapply(as.matrix(testingData[,1:4]), knnPredict, trainSet=as.matrix(trainingData[,1:4]), labels=trainingData$Species,k=3L) confusionMatrix <- table(predictions,factor(testingData$Species)) print(confusionMatrix) ``` 上述代码片段演示了一个完整的基于自定义逻辑而非第三方工具包构建KNN模型的过程,包括但不限于数据分割、相似性测量及最终评估等方面的工作。 #### 三、应用场景探讨 尽管存在诸如计算复杂度较高等局限之处,但在某些特定条件下依然能够展现出独特价值: - **低维空间**:当输入变量数量较少时,性能表现良好; - **多模态分布**:可以很好地适应具有多个峰值的概率密度函数所描述的现象; - **快速原型开发**:由于易于理解和编码特性,在初期探索阶段可作为一种高效手段迅速验证想法可行性[^3]。 综上所述,虽然与其他更先进的技术相比可能显得不够先进,但凭借其实现简便性和灵活性依旧占据着不可替代的地位。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值