K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:在特征空间中,如果一个样本附近的k个最近(即特征空间中最邻近)样本的大多数属于某一个类别,则该样本也属于这个类别。
缺点: 懒惰算法,当测试样本计算时的分类较大,内存开销大,必须选择k值,当k值选择不当则分类精度不能保证,容易受k值的影响 ,k值取很小 ,容易受异常点的影响,k值取很大,容易受k值数量波动。
优点: 简单 易于理解 易于实现 无需估计参数 无需训练
import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
from sklearn.preprocessing import StandardScaler
def knncls():
""":key近邻预测"""
# 读取数据
data = pd.read_csv("./TT.csv", error_bad_lines=False, encoding="gb18030", header=None,
names=['info', 'price', 'much', 'store', 'nan'])
# 处理数据
# 1缩小数据
data['price'] = data['price'].map(lambda price: int(price[:-4]))
data['much'] = data['much'].str.extract('(\d+)', expand=False).astype(int)
# print(data.head(10))
data = data.query("price>50&price<200")
# print(data.head(50))
data = data.drop(['nan'], axis=1)
data = data.drop(['info'], axis=1)
data = data.drop(['store'], axis=1)
# print(data.head(50))
# 把付款人数少于100的商店删除
tf = data[data.much > 100].reset_index()
data = data[data['price'].isin(tf.price)]
print(tf.head(20))
# 取出目标值和特征值
y = data['price']
x = data.drop(['price'], axis=1)
# 进行数据的分割训练集和测试集
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)
# 特征工程(标准化)
std = StandardScaler()
# 对测试集和训练集的特征值进行标准化
x_train = std.fit_transform(x_train)
x_test = std.transform(x_test)
# 进行算法流程
knn = KNeighborsClassifier(n_neighbors=3)
# 调用fit prodect store
knn.fit(x_train, y_train)
# 得出预测结果
y_predect = knn.predict(x_test)
print("预测目标是:", y_predect)
# 得出准确率
print("准确率为:", knn.score(x_test, y_test))
if __name__ == '__main__':
knncls()