【超参数寻优】交叉验证(Cross Validation)超参数寻优的python实现:单一参数寻优


有关交叉验证的博文有很多,这里我会引用几篇博文【参考资料1,2,3,4】,帮助大家温习一下。交叉验证可以用于机器学习训练模型的性能评价,也可以进行参数寻优,本博文主要介绍交叉验证用于机器学习参数寻优的方法。

一、交叉验证的意义

交叉验证将原始数据集分组,一部分作为训练集,一本分作为验证集。训练集用于训练模型,验证集用于评价训练模型的性能指标。
参数寻优的意义:参数的数值决定着模型的性能。
交叉验证进行参数寻优的意义:如果训练和验证的数据集是相同的,可能验证的结果特别好,但是对于新的数据集预测效果就差强人意,因为过拟合over-fitting)。采用交叉验证方法可以保障验证数据集没有参与过模型的训练,可以给出较为准确的参数寻优结果。

二、常用的交叉验证方法

1、Hold one method

样本数据被分为两组,一组作为训练数据集,用于训练模型,另一组作为验证数据集,用于评估模型性能。
优点:容易实现,处理简单。
缺点:没有用到交叉的方法,验证数据集对于模型的训练没有任何贡献。

2、K-flod CV

样本数据被分为 k k k组,每次将一组作为验证数据集,其余的 k − 1 k-1 k1组作为训练数据集。这样就会有 k k k个训练模型,这 k k k个模型的验证准确率的平均值作为模型的性能指标。
优点:所有的样本都会被用于模型训练,评价结果可信。
缺点:相较于Hold one method,处理较为复杂。

3、Leave-One-Out CV(LOO-CV)

设原始数据集中有 K K K个样本,每次选择一个样本作为验证数据集,其余的 K − 1 K-1 K1个样本作为训练数据集,这样就会有 K K K个训练模型,这 K K K个训练模型的验证准确率平均值为模型的性能指标。
优点:每次模型训练,几乎所有的样本都会应用到,结果最可信。
缺点:需要训练的模型较多,且训练数据集样本大,计算成本高。

二、交叉验证参数寻优的python实现

1、训练模型和待寻优参数

本博文选用的训练模型为线性的SVM模型(参考资料【5】),模型的数学表达为:

min ⁡ W , b 1 2 ∥ W ∥ 2 + C 2 ∑ i = 1

  • 3
    点赞
  • 71
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
要输出SVM超参数网格搜索法超参数寻优的准确率,可以使用交叉验证(cross-validation)来评估模型的性能。具体步骤如下: 1. 将数据集分成训练集和测试集。 2. 使用训练集进行网格搜索法超参数寻优,得到最优的超参数组合。 3. 使用最优的超参数组合在训练集上训练SVM模型。 4. 对测试集进行预测,并计算准确率。 5. 重复以上步骤多次,每次使用不同的训练集和测试集,以交叉验证的方式评估模型的性能。 6. 最终输出多次交叉验证的平均准确率作为模型的性能评价结果。 在Python中,可以使用sklearn库中的GridSearchCV类来实现SVM超参数网格搜索法超参数寻优,并使用交叉验证来评估模型性能。具体代码如下: ```python from sklearn.model_selection import GridSearchCV from sklearn.svm import SVC from sklearn.metrics import accuracy_score from sklearn.datasets import load_digits from sklearn.model_selection import train_test_split # 加载数据集 digits = load_digits() X, y = digits.data, digits.target # 将数据集分成训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 定义SVM模型 svc = SVC() # 定义超参数搜索范围 param_grid = {'C': [0.1, 1, 10], 'gamma': [0.1, 1, 10]} # 使用交叉验证进行超参数寻优 grid_search = GridSearchCV(svc, param_grid, cv=5) grid_search.fit(X_train, y_train) # 输出最优的超参数组合 print("Best parameters: {}".format(grid_search.best_params_)) # 在训练集上训练模型 svc_best = SVC(C=grid_search.best_params_['C'], gamma=grid_search.best_params_['gamma']) svc_best.fit(X_train, y_train) # 在测试集上进行预测,并计算准确率 y_pred = svc_best.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print("Accuracy: {:.2f}%".format(accuracy * 100)) ``` 其中,cv参数指定交叉验证的折数,accuracy_score函数用于计算准确率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值