1、k近邻算法在回归的应用
先从单一近邻开始,这次使用wave数据集。我们添加了3个测试数据点,在x轴上用绿色五角星表示。利用单一邻居的预测结果就是最近邻的目标值。
mglearn.plots.plot_knn_regression(n_neighbors=1)
#利用单一邻居的预测结果就是最近邻的目标值,用蓝色五角星表示
单一近邻回归对wave数据集的预测结果
使用多个近邻进行回归:
mglearn.plots.plot_knn_regression(n_neighbors=3)
#在使用多个近邻时,预测结果为这些邻居的平均值
在scikit-learn的KNeighborsResressor中的k近邻算法(与KNeighborClassifier类似)
from sklearn.neighbors import KNeighborsRegressor
X, y=mglearn.datasets.make_wave(n_samples=40)
#将wave数据集分为训练集和测试集
X_train, X_test,y_train,y_test=train_test_split(X,y,random_state=0)
#模型实例化,并将邻居个数设为3
reg=KNeighborsRegress