- 1.使用make_blobs生成样本为200,分类为2的数据集,并绘制成散点图。
import matplotlib.pyplot as plt
# 导入数据集
from sklearn.datasets import make_blobs
# 导入KNN分类器
from sklearn.neighbors import KNeighborsClassifier
# 导入数据集拆分工具
from sklearn.model_selection import train_test_split
# 分类是判断样本属于那一类 回归判断样本是一个连续值或者范围
# 生成样本是200 分类为2的数据集
data = make_blobs(n_samples=200, centers=2, random_state=8)
X, y = data
# print(X)
# print(y)
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.spring, edgecolors='k')
plt.show()
-
效果展示
-
2.使用KNeighborsClassifier对数据进行训练,绘制成图。
import numpy as np
clf = KNeighborsClassifier()
clf.fit(X, y)
x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
# np.meshgrid()将一维生成二维
xx, yy = np.meshgrid(np.arange(x_min, x_max, .02),
np.arange(y_min, y_max, .02))
# np.c_[]将数据合并合成两列 ravel()将数据降为一维
z = clf.predict(np.c_[xx.ravel(), yy.ravel()])
z = z.reshape(xx.shape)
# cmap设置样式 pcolormesh绘制分类图
plt.pcolormesh(xx, yy, z, cmap=plt.cm.Spectral)
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.spring, edgecolors='k')
# 新生成一个数据点
plt.scatter(6.75, 4.82, marker='*', c='red', s=200)
plt.xlim(xx.min(), xx.max())
plt.ylim(yy.min(), yy.max())
plt.title("classifilter:KNN")
plt.show()
- 3.使用刚才的模型对数据[6.75, 4.82]进行预测。
print(clf.predict([[6.75, 4.82]]))
预测结果为: