认知实习---------day03

本文介绍了常见的距离度量方法,如欧氏距离、曼哈顿距离、切比雪夫距离和闵可夫斯基距离,以及如何在KNN算法中使用这些方法处理鸢尾花数据集进行分类。作者通过Python的sklearn库展示了从数据加载到模型预测的完整过程。
摘要由CSDN通过智能技术生成

一、常用距离量度:

一、欧氏距离:最常见的距离度量,也是我们通常想到的直线距离。在二维或三维空间中,欧氏距离可以通过勾股定理计算。

二、曼哈顿距离:也称为城市街区距离或L1距离,是沿着坐标轴的距离总和。在二维平面中,曼哈顿距离即为两点之间的横向和纵向距离之和。

                     

三、切比雪夫距离:也称为棋盘距离或L∞距离,是两点在各个坐标轴上坐标差的最大值。在二维平面中,切比雪夫距离即为两点的横向和纵向距离的最大值。

                                               

四、闵可夫斯基距离:是欧氏距离和曼哈顿距离的一种推广,可以通过一个参数p来调节。当p=1时,闵可夫斯基距离等同于曼哈顿距离;当p=2时,等同于欧氏距离。闵可夫斯基距离的定义为:(∑|x_i - y_i|^p)^(1/p),其中x和y为两个点的坐标,i为坐标索引。

                       

二、KNN算法之鸢尾花案例

from sklearn.datasets import load_iris
import matplotlib.pyplot as plt
import seaborn as sns
import pandas as pd
from sklearn.model_selection import  train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier

# 1.加载数据集
iris_data = load_iris()
#print(f'数据集-->\n{iris_data.feature_names}\n{iris_data.data[:10]}')
#print(f'\n目标值-->\n{iris_data.target_names}\n{iris_data.target}')

# 2.数据展示
iris_df = pd.DataFrame(iris_data['data'],columns=iris_data.feature_names)
#print(iris_df)
iris_df['target'] = iris_data.target
#print(iris_df)

feature_names = list(iris_data.feature_names)
#print(feature_names)

for i in range(len(feature_names)):
    for j in range(len(feature_names)):
        col1 = feature_names[i]
        col2 = feature_names[j]

        sns.lmplot(x=col1, y=col2, hue='target', data=iris_df,fit_reg=False)
        plt.xlabel(col1)
        plt.xlabel(col2)
        plt.title(f'{col1} vs {col2}')
        plt.show()

# 3.数据基本处理
x_train,x_test,y_train,y_test = train_test_split(iris_data.data,iris_data.target,test_size=0.3)
print(f'数据总数量-->{len(iris_data.data)}')
print(f'训练集数量-->{len(x_train)}')
print(f'测试集数量-->{len(x_test)}')

# 4.特征处理
transfer = StandardScaler()
x_train = transfer.fit_transform(x_train)
x_test = transfer.fit_transform(x_test)

# 5.实例化
model = KNeighborsClassifier(n_neighbors=5)

# 6.训练
model.fit(x_train,y_train)

# 7.评估
y_pre = model.predict(x_test)
accuracy_score(y_test,y_pre)
score2 = model.score(x_test,y_test)

# 8.预测
mydata = [[5.1,3.5,1.4,0.2],
          [4.6,3.1,1.5,0.2]]
mydata = transfer.fit_transform(mydata)
predata = model.predict(mydata)
print(f'predate-->{predata}')

下面是运行结果:

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值