贝叶斯优化 Bayesian Optimization

贝叶斯优化是一种在函数具体形态未知时寻找极值的优化技术,尤其适用于小于20维空间的问题。它通过不断取样来推测函数的最大值,不需要函数的导数或凸性。优化过程中,利用获取的样本数据构建高斯过程回归(GPR),通过选取提取函数(如probability of improvement, expected improvement, upper confidence bound等)来决定下一个采样点。这种方法平衡了探索和利用,能够在探索未知空间的同时强化已有最佳结果。" 131162163,9148081,使用Vue3+Layui搭建通用后台管理系统前端,"['前端开发', 'Vue', 'layui', 'echarts', '项目创建']
摘要由CSDN通过智能技术生成

关键字:提取函数aquisition function,熵,响应曲面

简介:所谓优化,实际上就是一个求极值的过程,数据科学的很多时候就是求极值的问题。那么怎么求极值呢?很显然,很容易想到求导数,这是一个好方法,但是求导即基于梯度的优化的条件是函数形式已知才能求出导数,并且函数要是凸函数才可以。然而实际上很多时候是不满足这两个条件的,所以不能用梯度优化,贝叶斯优化应运而生了。

    贝叶斯优化常原来解决反演问题,

(反演问题是指由结果及某些一般原理(或模型)出发去确定表征问题特征的参数(或模型参数)

    贝叶斯优化的好处在于只需要不断取样,来推测函数的最大值。并且采样的点也不多。

一、贝叶斯优化的适用条件

不知道函数的具体形态即表达式

但是如果给定一个x,可以计算y。这里的计算方法可以使用之前的GPR,如果(x,y)够多了,那么就基本知道函数图像的走势了。

适用于小于20维的空间上优化

二、目的

找出函数的最值,这是最主要的目的。因为很多时候数据科学的一大部分问题都是

  • 16
    点赞
  • 108
    收藏
    觉得还不错? 一键收藏
  • 14
    评论
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值