![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
sklearn库的学习
海棠依旧xx
这个作者很懒,什么都没留下…
展开
-
sklearn 学习之数据的读取与数据的探索
引入库 sklearn from sklearn import datasetsdatasets模块下的很多数据集取出其中一个iris数据集,其中以字典形式存储,查看键值特征描述特征数据特征名称标签及名称数据大小查看取两列数据绘图区分不同类别,分开不同的X绘制matplotlib官网点击打开链接...原创 2018-03-08 15:10:28 · 2773 阅读 · 0 评论 -
1.2 KNN算法学习——使用scikit-learn中的KNN模型实现
注:X_train,y_train,x数据同上一篇《KNN学习笔记之KNN算法原理及简单实现》中的训练数据和测试数据值原创 2018-03-08 23:25:47 · 612 阅读 · 0 评论 -
1.4 KNN算法学习——KNN算法的实现与封装
封装代码实现import numpy as npfrom math import sqrtfrom collections import Counterdef kNN_classfy(k,X_train,y_train,x): assert 1 <= k <=X_train.shape[0],"k must be valid" assert X_train.s...原创 2018-03-10 21:55:49 · 375 阅读 · 0 评论 -
1.6 KNN算法学习——KNN算法中超参数的探索
寻找最好的k在KNN算法中,k需要提前指定,那么k取多少为最优值?此处通过for循环创建多个分类器进行比较分类准确率代码搜索:验证的结果为k=4时准确率最高,这个过程即所谓调参的过程,寻找最好的超参数的值注:如果找到的最优值在边界上,很有可能最好值在搜索范围之外,所以应该再往上(下)调整范围以寻找最优的值,因为不同参数决定了不同的准确率,他们之间呈连续型变换的。KNN中其他超参数权重weight(...原创 2018-03-11 20:55:56 · 2867 阅读 · 0 评论 -
1.7 KNN算法学习——网格搜索超参数
网格搜索参数:定义参数param_grid=[ { 'weights':['uniform'], 'n_neighbors':[i for i in range(1,11)] }, { 'weights':['distance'], 'n_neighbors':[i for i in range(1,11)],...原创 2018-03-11 22:34:29 · 1902 阅读 · 0 评论 -
2.8 线性回归算法学习——sklearn的回归模型学习
%run ML/KNN/model_selection.py X_train,X_test,y_train,y_test=train_test_split(X,y,seed=666)from sklearn.linear_model import LinearRegressionlin_reg=LinearRegression()lin_reg.fit = (X_train,y_train)l...原创 2018-03-13 01:54:07 · 371 阅读 · 0 评论 -
2.9 线性回归算法学习——kNN模型解决回归问题及网格搜索最优参数
模型引入from sklearn.neighbors import KNeighborsRegressor实例化对象knn_reg=KNeighborsRegressor()训练数据集knn_reg.fit(X_train,y_train)查看评估的成绩knn_reg.score(X_test,y_test)运行结果网格搜索参数:from sklearn.model_selection impor...原创 2018-03-13 02:04:53 · 2662 阅读 · 0 评论