关键字:提取函数aquisition function,熵,响应曲面
简介:所谓优化,实际上就是一个求极值的过程,数据科学的很多时候就是求极值的问题。那么怎么求极值呢?很显然,很容易想到求导数,这是一个好方法,但是求导即基于梯度的优化的条件是函数形式已知才能求出导数,并且函数要是凸函数才可以。然而实际上很多时候是不满足这两个条件的,所以不能用梯度优化,贝叶斯优化应运而生了。
贝叶斯优化常原来解决反演问题,
(反演问题是指由结果及某些一般原理(或模型)出发去确定表征问题特征的参数(或模型参数))
贝叶斯优化的好处在于只需要不断取样,来推测函数的最大值。并且采样的点也不多。
一、贝叶斯优化的适用条件
不知道函数的具体形态即表达式
但是如果给定一个x,可以计算y。这里的计算方法可以使用之前的GPR,如果(x,y)够多了,那么就基本知道函数图像的走势了。
适用于小于20维的空间上优化
二、目的
找出函数的最值,这是最主要的目的。因为很多时候数据科学的一大部分问题都是