KNN(k-Nearest Neighbor)算法原理

KNN(k-Nearest Neighbor)算法是一种基于实例的学习方法,常用于分类和回归问题。下面是KNN算法的原理和步骤,以及欧式距离和曼哈顿距离的计算原理:

  1. 原理

KNN算法基于一个假设:与一个样本最相似的其他k个样本的类别可以用来预测该样本的类别。KNN算法将所有的训练数据看作一个点集,根据他们与新样本之间的距离进行分类。

  1. 步骤

KNN算法的实现步骤如下:

  • 计算测试数据与训练数据之间的距离(可以使用欧式距离或曼哈顿距离)。
  • 选取距离测试数据最近的k个点。
  • 统计k个点中各类别出现的次数。
  • 将出现次数最多的类别作为测试数据的预测结果。
  1. 欧式距离计算原理

欧式距离,也称L2距离,是一种常用的距离度量方式,其计算公式为:

d ( x , y ) = s q r t ( s u m ( x i − y i ) 2 ) d(x,y) = sqrt(sum(xi-yi)^2) d(x,y)=sqrt(sum(xiyi)2)

其中,x和y是两个向量,xi和yi分别表示向量中的第i个元素。

简单来说,欧式距离就是把两个点的各个坐标分别相减后平方再相加,最后再取平方根。

  1. 曼哈顿距离计算原理

曼哈顿距离,也称L1距离,也叫城市街区距离,其计算公式为:

d ( x , y ) = s u m ( ∣ x i − y i ∣ ) d(x,y) = sum(|xi-yi|) d(x,y)=sum(xiyi)

其中,x和y是两个向量,xi和yi分别表示向量中的第i个元素。

简单来说,曼哈顿距离就是把两个点的各个坐标分别相减后取绝对值再相加。

KNN(K-Nearest Neighbors,K近邻算法)是一种基本的分类和回归算法,它的原理非常简单直观,即通过计算待分类数据点与已有数据集中所有数据点的距离,选择其中距离最小的K个数据点(最近邻),并把它们的类别作为待分类数据点的类别进行分类。

以下是KNN算法的代码实现示例:

import numpy as np
from collections import Counter

def euclidean_distance(x1, x2):
    return np.sqrt(np.sum((x1 - x2)**2))

class KNN:
    def __init__(self, k=3):
        self.k = k
        
    def fit(self, X, y):
        self.X_train = X
        self.y_train = y
        
    def predict(self, X):
        y_pred = [self._predict(x) for x in X]
        return np.array(y_pred)
    
    def _predict(self, x):
        #Compute distances between x and all examples in the training set
        distances = [euclidean_distance(x, x_train) for x_train in self.X_train]
        #Sort by distance and return indices of the first k neighbors
        k_idx = np.argsort(distances)[:self.k]
        #Extract the labels of the k nearest neighbor training samples
        k_neighbor_labels = [self.y_train[i] for i in k_idx]  
        #Return the most common class label
        most_common = Counter(k_neighbor_labels).most_common(1)
        return most_common[0][0]

这个代码实现的KNN类可以接受一个超参数K和训练数据集(X_train,y_train),并且能够对给定的测试数据集X做出预测。可以使用以下代码进行测试:

from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

data = datasets.load_iris()
X = data.data
y = data.target

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=123)

knn = KNN(k=3)
knn.fit(X_train, y_train)
y_pred = knn.predict(X_test)

print("Accuracy:", accuracy_score(y_test, y_pred))

这个示例使用Iris数据集进行分类,随机选择了20%的数据作为测试集。结果将打印出测试集上的准确度分数。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ywfwyht

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值