机器学习之路8

模型选择与调优

1交叉验证(cross validation)

是指将拿到的训练数据,分为训练集和验证集。以将训练数据分成4份为例子,其中一份作为验证集,然后经过4次的测试,每次都更换不同的验证集,即得到4组模型的结果,取平均值作为最终结果,又称4折交叉验证。可以让训练得到的模型结果更加准确。

2超参数搜索——网格搜索(Grid Search)

通常情况下,有很多参数需要手动的指定(如KNN中的K值),这种叫做超参数,但是手动指定过程复杂,所以需要对模型预设几种超参数的组合,每组超参数都采用交叉验证来进行评估,最后选出最优参数来组合建立模型。

代码

#导入网格搜索和交叉验证的模块
from sklearn.model_selection import GridSearchCV
def KNN_iris_gscv():
    '''
    用KNN算法对鸢尾花进行分类,添加网格搜索(确定超参的值,K值)和交叉验证(提高准确率)
    :return:
    '''
    #1 获取数据
    iris = load_iris()
    #2 划分数据集
    x_train,x_test,y_train,y_test = train_test_split(iris.data,iris.target,random_state=6)
    #3 特征工程:标准化
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    #对训练集中的平均值和标准差来对测试集做标准化
    x_test = transfer.transform(x_test)
    #4 KNN算法预估器
    estimator = KNeighborsClassifier()
    #加入网格搜索和交叉验证
    #参数准备
    param_dict = {"n_neighbors":[1,3,5,7,9,11]}
    #cv是交叉验证次数,param_grid是要确定的超参的范围
    estimator = GridSearchCV(estimator,param_grid=param_dict,cv=10)
    estimator.fit(x_train,y_train)
    #5 模型评估
    #方法1:直接比对真实值和预测值
    y_predict = estimator.predict(x_test)
    print("y_predict:\n",y_predict)
    print("直接比对真实值和预测值:\n",y_test == y_predict)
    #方法2:计算准确率
    score = estimator.score(x_test,y_test)
    print("准确率为:\n",score)
    #最佳参数:best_params_
    print("最佳参数\n",estimator.best_params_)
    #最佳结果:best_score_
    print("最佳结果\n",estimator.best_score_)
    #最佳估计器:best_estimator_
    print("最佳估计器\n",estimator.best_estimator_)
    #交叉验证结果:cv_results_
    print("交叉验证结果\n",estimator.cv_results_)
    return None

输出结果

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值