k最近邻算法java,k近邻法(示例代码)

# # k近邻算法

步骤:

1.导入数据

2.分割数据(用于交叉验证)

3.k近邻算法

4.模型评估

# ### 一、导入数据

# 从sklearn.datasets 导入 iris数据加载器。

from sklearn.datasets import load_iris

# 使用加载器读取数据并且存入变量iris。

iris = load_iris()

# 查验数据规模。

iris.data.shape

# 查看数据说明。对于一名机器学习的实践者来讲,这是一个好习惯。

print (iris.DESCR)

### 二、分割数据

# 从sklearn.model_selection里选择导入train_test_split用于数据分割。

from sklearn.model_selection import train_test_split

# 从使用train_test_split,利用随机种子random_state采样25%的数据作为测试集。

X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.25, random_state=33)

X_train.shape

### 三、k近邻算法

# 从sklearn.preprocessing里选择导入数据标准化模块。

from sklearn.preprocessing import StandardScaler

# 从sklearn.neighbors里选择导入KNeighborsClassifier,即K近邻分类器。

from sklearn.neighbors import KNeighborsClassifier

# 对训练和测试的特征数据进行标准化。

ss = StandardScaler()

X_train = ss.fit_transform(X_train)

X_test = ss.transform(X_test)#没有.fit 说明用的还是训练集的均值与标准差

# 使用K近邻分类器对测试数据进行类别预测,预测结果储存在变量y_predict中。

knc = KNeighborsClassifier()

knc.fit(X_train, y_train)

y_predict = knc.predict(X_test)

# ### 四、模型评估

# 使用模型自带的评估函数进行正确性测评。

print (‘The accuracy of K-Nearest Neighbor Classifier is‘, knc.score(X_test, y_test) )

# 依然使用sklearn.metrics里面的classification_report模块对预测结果做更加详细的分析。

from sklearn.metrics import classification_report

print (classification_report(y_test, y_predict, target_names=iris.target_names))

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值