SMBO(SequentialModel-Based GlobalOptimization)

SMBO是一种高效的函数优化方法,它利用贝叶斯优化进行参数探索,无需计算梯度,能处理多种类型的变量,并在大量变量的并行优化中表现优秀。在AutoML中,SMBO用于寻找最优超参数,通过最小化损失函数期望值和最大化方差来指导搜索。算法通过不断评估和拟合损失函数,逐步优化超参数,如图所示,每次迭代选择loss可能最小且下降潜力大的区域进行探索。
摘要由CSDN通过智能技术生成

序贯模型优化(Sequential model-based optimization,SMBO),是最有效的函数优化方法之一。与共轭梯度下降法等标准优化策略相比,SMBO的优势有:利用平滑性而无需计算梯度;可处理实数、离散值、条件变量等;可处理大量(成百上千)变量并行优化。

贝叶斯优化是参数优化的自适应方法,在探索参数空间的新区域之间进行权衡,并利用历史信息来找到快速最大化函数的参数。像随机搜索一样,贝叶斯优化是随机的。

贝叶斯优化属于一类称为基于顺序模型的优化(SMBO)算法的优化算法。这些算法使用先前评估的参数和结果来假设未观察到的参数,采集功能使用此信息建议下一组参数。

 

SMBO在AutoML的应用:

SMBO全称SequentialModel-Based GlobalOptimization,是AutoML中一种搜寻最优超参的方法,用一句话概括就是:在有限的迭代轮数内,按照损失函数的期望值最小同时方差最大的方式选择参数。直观点理解,就是选择loss小,并且最有可能更小的地方进行探索,寻找更优超参。

如下图,横轴为超参x,纵轴为超参的返回值即loss。红色实线是真实loss,蓝色圆圈是几个测试的点,蓝色虚线和灰色区域是根据蓝色圆圈拟合的均值和置信区间(2个标准差是95%的置信区间),EI即SMBO的评估方程。

可以看到,第一轮有个很明显的凸起高峰,这个高峰即第一轮的结果,拿着这个x' 重新计算 loss,就可以得到 (b) 里新的蓝圈,进入下一轮。在第二轮中,重新计算EI,发现有两个高峰,左边峰值

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值