手撸python 实现KNN分类算法

1、基于sklearn库实验KNN算法

from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
import numpy as np

iris = datasets.load_iris()
X = iris.data
y = iris.target
print(X, y)

X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=2003)

clf = KNeighborsClassifier(n_neighbors=3)
clf.fit(X_train, y_train)

correct = np.count_nonzero((clf.predict(X_test)==y_test)==True)
print("Accuracy is: %.3f" % (correct/len(X_test)))

结果Accuracy is: 0.921

2、自己手动写一个KNN算法解决分类问题。 主要的模块包括欧式距离的计算以及投票环节。

from sklearn import datasets
from collections import Counter  # 为了做投票
from sklearn.model_selection import train_test_split
import numpy as np

# 导入数据
iris = datasets.load_iris()
X = iris.data
y = iris.target
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=2003)

def euc_dis(instance1,instance2):
    """
    计算两个样本instance1和instance2之间的欧式距离
    :param instance1: 第一个样本, array
    :param instance2: 第二个样本, array
    :return: distance array
    """
    dist = (sum((instance1-instance2)**2))**0.5
    return dist

def knn_classify(X, y, testInstance, k):
    """
    给定一个测试数据testInstance, 通过KNN算法来预测它的标签。
    X: 训练数据的特征
    y: 训练数据的标签
    testInstance: 测试数据,这里假定一个测试数据 array型
    k: 选择多少个neighbors?
    """
    dist = [euc_dis(x, testInstance) for x in X]
    kneighbors = np.argsort(dist)[: k]
    count = Counter(y[kneighbors])
    return count.most_common()[0][0]

# 预测结果
predictions = [knn_classify(X_train, y_train, data, 3) for data in X_test]
correct = np.count_nonzero((predictions==y_test)==True)
print("Accuracy is: %.3f" %(correct/len(X_test)))

结果Accuracy is: 0.921

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值