K-临近算法

3.1 sklearn转换器和估计器

转换器        估计器(estimator)

3.1.1 转换器 —— 特征工程的父类

1 实例化(实例化的是一个转换器(Transformer))

2 调用fit-transform(对于文档建立分类词频矩阵,不能同时调用)

标准化:

(x - mean)/ std

fit_transform()

fit()        计算 每一列的平均值、标准差

transform()        (x-mean)/ std 进行最终的转换

3.1.2  估计器(sklearn机器学习算法实现)

估计器(estimator)

1 实例化一个estimator

2  estimator,fit(x_train,y_train)计算

—— 调用完毕 模型生成

3 模型评估

1)直接比对真实值和预测值

y_predict = estimator.predict(x_test)

y_test == y_predict

2)计算准确率

accuracy = estimator.score(x_test,y_test)

什么是K-近邻算法,核心思想:你的临近来推断你的类别

如何确定近邻:距离公式

曼哈顿距离 绝对值距离

明可夫斯基距离

如果k值取的不一样,有什么样的影响

k 值过小 容易受到异常点影响

k 值过大 样本不均衡的影响

使用k-近邻算法需要进行无量纲化处理和标准化处理

优点:简单,易于理解,易于实现,无需训练

缺点:必须指定k值,k值选择不恰当则分类精度不能保证

            懒惰算法,对测试样本分类时的计算量大,内存开销大

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier

def knn_iris():
    """
    用KNN算法对鸢尾花进行分类
    :return:
    """
    # 1)获取数据
    iris = load_iris()

    # 2)划分数据集
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=6)

    # 3)特征工程 标准化
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)

    # 4)KNN算法预估器  n_neighbors=3就是值k值
    estimator = KNeighborsClassifier(n_neighbors=3)
    estimator.fit(x_train, y_train)

    # 5)模型评估
    # 方法1 直接比对真实值和预测值
    y_predict = estimator.predict(x_test)
    print("y_predict:\n", y_predict)
    print("直接比对真实值和预测值:\n", y_test == y_predict)

    # 方法2 计算准确率
    score = estimator.score(x_test, y_test)
    print("准确率为:\n", score)

    return None

if __name__ == "__main__":
    # 代码1 用KNN算法对鸢尾花进行分类
    knn_iris()

 模型选择与调优

  • sklearn.model_selection.GridSearchCV(estimator,param_grid=None,cv=None)
  • 对估计器的指定参数值进行详尽搜索
  • estimator:估计器对象
  • param-grid:估计器参数(dict){"n_neighbors":[1,3,5]}
  • cv:指定几折交叉验证
  • fit():输入训练数据
  • score():准确率
  • 结果分析:
  1. 最佳参数:best_params
  2. 最佳结果:best_score
  3. 最佳估计器: best_estimator
  4. 交叉验证结果:cv_results

 

def knn_iris_gscv():
    """
    用knn算法对鸢尾花进行分类,添加网络搜索和交叉验证
    :return:
    """
    # 1)获取数据
    iris = load_iris()

    # 2)划分数据集
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=6)

    # 3)特征工程 标准化
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)

    # 4)KNN算法预估器
    estimator = KNeighborsClassifier()

    # 加入网络搜索和交叉验证
    # 参数准备
    param_dict = {"n_neighbors": [3, 5, 7, 9]}
    estimator = GridSearchCV(estimator, param_grid=param_dict, cv=10)
    estimator.fit(x_train, y_train)

    # 5)模型评估
    # 方法1 直接比对真实值和预测值
    y_predict = estimator.predict(x_test)
    print("y_predict:\n", y_predict)
    print("直接比对真实值和预测值:\n", y_test == y_predict)

    # 方法2 计算准确率
    score = estimator.score(x_test, y_test)
    print("准确率为:\n", score)

    # 最佳参数:best_params_
    print("最佳参数\n", estimator.best_params_)
    # 最佳结果:best_score_
    print("最佳结果\n", estimator.best_estimator_)
    # 最佳估计器: best_estimator_
    print("最佳估计器\n", estimator.best_estimator_)
    # 交叉验证结果:cv_results_
    print("交叉验证结果\n", estimator.cv_results_)

    return None

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值