cross validation set 想法

1、LOOCV方法,即(Leave-one-out cross-validation)

(延伸  --  多次随机测试 )

优点:出错较少 缺点:计算量太大差不多N倍

2、K-fold Cross Validation

将样本分为M块,k块验证,M-k块测试 ,CM,k次验证

优点:成本较少,耗时却更少



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要画出cross validation error与岭回归的λ的图像,需要进行以下步骤: 1. 定义岭回归的模型。 2. 选择一组合适的λ值,生成一系列不同的岭回归模型。 3. 对于每个λ值,使用交叉验证方法来计算其对应的平均交叉验证误差。 4. 将λ值与其对应的平均交叉验证误差绘制在坐标系中,得到一条λ-误差曲线。 下面是具体的实现步骤: 1. 定义岭回归模型 假设我们有一个训练集(X_train, y_train),我们可以使用sklearn库中的Ridge类来定义岭回归模型。代码如下: ```python from sklearn.linear_model import Ridge ridge_model = Ridge() ``` 2. 选择一组合适的λ值 我们可以使用numpy库中的logspace函数来生成一组等比数列,作为λ的取值范围。代码如下: ```python import numpy as np n_alphas = 200 alphas = np.logspace(-10, 2, n_alphas) ``` 这里我们生成了200个等比数值,从10的-10次方到10的2次方,用于作为岭回归的λ值。 3. 计算平均交叉验证误差 我们可以使用sklearn库中的cross_val_score函数来计算每个λ值下的平均交叉验证误差。代码如下: ```python from sklearn.model_selection import cross_val_score cv_error = [] for alpha in alphas: ridge_model.set_params(alpha=alpha) scores = cross_val_score(ridge_model, X_train, y_train, cv=10, scoring='neg_mean_squared_error') cv_error.append(np.mean(np.sqrt(-scores))) ``` 这里我们使用10折交叉验证来计算平均交叉验证误差,并且使用均方根误差(RMSE)作为评估指标。 4. 绘制λ-误差曲线 最后,我们可以使用matplotlib库来绘制λ-误差曲线。代码如下: ```python import matplotlib.pyplot as plt plt.figure(figsize=(10, 6)) plt.plot(alphas, cv_error) plt.xlabel('λ') plt.ylabel('平均交叉验证误差') plt.title('岭回归正则化参数与交叉验证误差关系图') plt.show() ``` 这里我们使用plt.plot函数来绘制λ-误差曲线,使用plt.xlabel和plt.ylabel函数来设置坐标轴标签,使用plt.title函数来设置图像标题。最后使用plt.show函数来显示图像。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值