集成学习笔记4--参数调优

  1. 对模型的超参数进行调优(调参):
    我们前面4部分的优化都是基于模型本身的具体形式的优化,那本次5调整的内容是超参数,也就是取不同的超参数的值对于模型的性能有不同的影响。

4.1 参数和超参数

在刚刚的讨论中,我们似乎对模型的优化都是对模型算法本身的改进,比如:岭回归对线性回归的优化在于在线性回归的损失函数中加入L2正则化项从而牺牲无偏性降低方差。但是,大家是否想过这样的问题:在L2正则化中参数 λ 应该选择多少?是0.01、0.1、还是1?到目前为止,我们只能凭经验或者瞎猜,能不能找到一种方法找到最优的参数 λ ?我们很自然的问题就是岭回归中的参数 λ 和参数w之间有什么不一样?事实上,参数w是我们通过设定某一个具体的 λ 后使用类似于最小二乘法、梯度下降法等方式优化出来的,我们总是设定了 λ 是多少后才优化出来的参数w。
因此,类似于参数w一样,使用最小二乘法或者梯度下降法等最优化算法优化出来的数我们称为参数,类似于 λ 一样,我们无法使用最小二乘法或者梯度下降法等最优化算法优化出来的数我们称为超参数
模型参数是模型内部的配置变量,其值可以根据数据进行估计:

  • 参数通常不由编程者手动设置。
  • 参数是机器学习算法的关键,它们通常由过去的训练数据中总结得出 。

模型超参数是模型外部的配置,其值无法从数据中估计:

  • 超参数通常用于帮助估计模型参数。
  • 超参数通常由人工指定。

4.2 优化超参数

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值