交叉验证中cv=? 与 cv=KFold(n_splits=?)的区别

这几天复习交叉验证的时候发现一个问题,学习资料中有些地方用的函数中cv=?,有些地方则用的cv=KFold(n_splits=?) 这个函数,就比如我用KNN模型做十折交叉验证:

model = sk_neighbors.KNeighborsClassifier(n_neighbors=5,n_jobs=1) #KNN分类
import sklearn.model_selection as sk_model_selection
accs=sk_model_selection.cross_val_score(model, iris_X, y=iris_y, scoring=None,cv=10, n_jobs=1)
print('交叉验证结果:',accs)

这里面第三行用的cv=10。然后在我的Titanic实战中:

kf = KFold(titanic.shape[0], n_splits=10, random_state=1, shuffle=False)

这里用kfold函数中的n_splits代表分十份。为什么呢???

我在StackExchange这个网站发现老外说的这些话:
When an integer is passed to the cv parameter of cross_val_score():

  • StratifiedKFold is used if the estimator is a classifier and y is either binary or multiclass.
  • In all other cases, KFold is used.

啥意思呢? 如果估计器是一个分类器,并且y是二进制或多类,则使用StratifiedKFold,如果是其他情况,就用KFold

这里的StratifiedKFold是啥?cv=StratifiedKFold(n_splits=10)其实就等价于cv=10
同样也有cv=KFold(n_splits=10)))

遵从这个标准,可以让结果变得更好!

  • 6
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在使用 `cross_val_score` 进行交叉验证时,你指定了一个无效的评估指标 "mean_squared_error"。事实上,`cross_val_score` 默认情况下使用的是基于模型的 `score` 方法来计算评估指标,而不是直接使用字符串形式的评估指标。 要计算均方误差(MSE)作为交叉验证的评估指标,你可以使用 Scikit-learn 的 `make_scorer` 函数将 MSE 包装成一个有效的评估指标。以下是一个示例: ```python import numpy as np from sklearn.model_selection import cross_val_score, KFold from sklearn.pipeline import Pipeline from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LinearRegression from sklearn.metrics import make_scorer, mean_squared_error # 创建一个回归模型的 Pipeline pipeline = Pipeline([ ('scaler', StandardScaler()), ('regressor', LinearRegression()) ]) # 创建 KFold 交叉验证对象 kfold = KFold(n_splits=10, random_state=42, shuffle=True) # 创建 MSE 评估指标 mse_scorer = make_scorer(mean_squared_error) # 进行交叉验证并计算 MSE cv_results = cross_val_score(pipeline, X_train, Y_train, cv=kfold, scoring=mse_scorer) # 输出交叉验证结果 print("MSE Scores:", cv_results) print("Average MSE:", np.mean(cv_results)) ``` 通过使用 `make_scorer` 函数将 MSE 包装成一个有效的评估指标,并将其传递给 `cross_val_score` 的 `scoring` 参数,你就可以计算交叉验证的 MSE 评估结果了。记住,这只是一种自定义的方法,Scikit-learn 并没有原生支持 MSE 作为评估指标。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值