吴恩达机器学习笔记36-正则化和偏差/方差(Regularization and Bias_Variance)

在我们在训练模型的过程中,一般会使用一些正则化方法来防止过拟合。但是我们可能
会正则化的程度太高或太小了,即我们在选择λ 的值时也需要思考与刚才选择多项式模型次
数类似的问题。

我们选择一系列的想要测试的 ? 值,通常是 0-10 之间的呈现2 倍关系的值(如:
0,0.01,0.02,0.04,0.08,0.15,0.32,0.64,1.28,2.56,5.12,10共12 个)。我们同样把数据分为训练
集、交叉验证集和测试集。

选择?的方法为:
1.使用训练集训练出12 个不同程度正则化的模型
2.用12 个模型分别对交叉验证集计算的出交叉验证误差
3.选择得出交叉验证误差最小的模型
4.运用步骤3 中选出模型对测试集计算得出推广误差,我们也可以同时将训练集和交叉验证集模型的代价函数误差与λ 的值绘制在一张图表上:

• 当 ? 较小时,训练集误差较小(过拟合)而交叉验证集误差较大
• 随着 ? 的增加,训练集误差不断增加(欠拟合),而交叉验证集误差则是先减小后
增加

转载于:https://www.cnblogs.com/sl0309/p/10463841.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值