python实现KNN回归算法

话不多说,直接上代码,数据集在百度网盘中,链接如下:
链接:https://pan.baidu.com/s/1gOTQ1KoKbFUmDNQYA_0nWg
提取码:soft

import matplotlib.pyplot as plt
import matplotlib as mpl
import numpy as np
import pandas as pd

data = pd.read_csv(r"C:\\Users\\不归客\Desktop\\iris.csv", header=0)
# 删除不需要的Id与Species列
data.drop(["Id", "Species"], axis=1, inplace=True)
# 删除重复数据
data.drop_duplicates(inplace=True)

# KNN回归


class KNN:
    '''
    使用python实现KNN算法(回归预测)
    该算法用于回归预测,根据前3个特征属性,寻找最近的k个邻居,然后再根据k个邻居的第4个特征属性,去预测当前样本的第4个特征值
    '''

    def __init__(self, k):
        '''初始化方法

        Parameters
        ----------
        k:int
          邻居的个数
        '''
        self.k = k

    def fit(self, X, y):
        '''训练方法

         Parameters
        ----------
        X: 类数组类型(特征矩阵)。形状为[样本数量,特征数量]
           待训练的样本特征(属性)

        y: 类数组类型(目标标签)。形状为[样本数量]
           每个样本的目标值(标签)
        '''

        self.X = np.asarray(X)
        self.y = np.asarray(y)

    def predict(self, X):
        '''
        根据参数传递的X,对样本数据进行预测

         Parameters
        ----------
        X: 类数组类型(特征矩阵)。形状为[样本数量,特征数量]
           待训练的样本特征(属性)

        Returns
        -------
        result: 数组类型
                预测的结果值
        '''
        # 转换成数组类型
        X = np.asarray(X)
        result = []
        for x in X:
            # 计算距离(计算与训练集中每个X的距离)
            dis = np.sqrt(np.sum((x-self.X)**2, axis=1))
            # 返回数组排序后,每个元素在原数组中(排序之前的数组)的索引
            index = dis.argsort()
            # 取前k个距离最近的索引
            index = index[:self.k]
            result.append(np.mean(self.y[index]))
        return result

    def predict2(self, X):
        '''
        根据参数传递的X,对样本数据进行预测(考虑权重)

         Parameters
        ----------
        X: 类数组类型(特征矩阵)。形状为[样本数量,特征数量]
           待训练的样本特征(属性)

        Returns
        -------
        result: 数组类型
                预测的结果值
        '''
        # 转换成数组类型
        X = np.asarray(X)
        result = []
        for x in X:
            # 计算距离(计算与训练集中每个X的距离)
            dis = np.sqrt(np.sum((x-self.X)**2, axis=1))
            # 返回数组排序后,每个元素在原数组中(排序之前的数组)的索引
            index = dis.argsort()
            # 取前k个距离最近的索引
            index = index[:self.k]
            # 求权重
            s = np.sum(1/(dis[index]+0.001))  # 加上0.001,是为了避免距离为0的情况
            # 使用每个节点距离的倒数,除以倒数之和,得到权重
            weight = (1/(dis[index]+0.001))/s
            # 使用邻居节点的标签值,乘以对应的权重,然后相加
            result.append(np.mean(self.y[index]*weight))
        return np.array(result)


t = data.sample(len(data), random_state=0)
train_X = t.iloc[:120, :-1]
train_y = t.iloc[:120, -1]
test_X = t.iloc[120:, :-1]
test_y = t.iloc[120:, -1]

knn = KNN(k=3)
knn.fit(train_X, train_y)
result = knn.predict(test_X)
result2 = knn.predict2(test_X)
print("KNN回归的误差:", np.mean(np.sum((result - test_y)**2)))
print("KNN带权回归的误差:", np.mean(np.sum((result2 - test_y)**2)))

mpl.rcParams["font.family"] = "SimHei"
mpl.rcParams["axes.unicode_minus"] = False
plt.figure(figsize=(10, 10))
# 绘制预测值
plt.plot(result, "ro-", label="预测值")
plt.plot(result2, "bo-", label="带权预测值")
# 绘制真实值
plt.plot(test_y.values, "go--", label="真实值")
plt.legend()
plt.title("KNN连续纸预测展示")
plt.xlabel("节点序号")
plt.ylabel("花瓣宽度")
plt.show()
  • 3
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

单手提煤气罐

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值