高斯过程回归

参考:https://www.cnblogs.com/tiandsp/p/14729018.html

  1. 训练和预测: 高斯过程回归(GPR)的基本思想是使用已知的训练输入 x 和对应的训练输出 y 来构建一个模型,然后使用该模型来对新的输入 x1 进行预测,得到预测输出 y1 。
  2. 计算距离矩阵: 在GPR中,通常使用核函数来计算两个数据点之间的相似性或相关性。距离矩阵 K、Ks 和 Kss 分别对应于训练数据点之间的相似性、训练数据点和预测数据点之间的相似性,以及预测数据点之间的相似性。这些矩阵用于计算模型的均值和方差。
  3. 均值和方差的计算: 高斯过程回归的关键是计算均值和方差。对于给定输入 x1 ,均值和方差的计算如下:
    μ ( x 1 ) = K s ⊤ ( K + δ I ) − 1 y \mu (x1) = K_s^\top (K+\delta I)^{-1} y μ(x1)=Ks(K+δI)1y
    σ ( x 1 ) = K s s − K s ⊤ ( K + δ I ) − 1 K s \sigma (x1)=K_{ss}-K_s^\top (K+\delta I)^{-1}K_s σ(x1)=KssKs(K+δI)1Ks
    其中,ks是包含 x 和 x1之间的相似性的向量,kss是 x1之间的相似性,I是单位矩阵。
  4. 最大化边缘对数似然(Marginal Log-likelihood)来找到最优的参数: 似然估计通常是用于估计核函数的超参数和噪声水平参数。这些参数可以通过最大似然估计来确定,以使GPR模型与训练数据最拟合。通过数值优化方法(如梯度下降)来找到最优参数值。
    边缘对数似然:
    l o g p ( y ∣ x , l ) = l o g N ( 0 , K s s ( σ , l ) ) = − 1 2 y ⊤ K s s − 1 y − 1 2 l o g ∣ K s s ∣ − N 2 l o g ( 2 π ) log p(y|x,l) =log \Nu (0,K_{ss}(\sigma,l))=-\frac{1}{2} y^\top K_{ss}^{-1}y-\frac{1}{2}log|K_{ss}|-\frac{N}{2}log(2\pi) logp(yx,l)=logN(0,Kss(σ,l))=21yKss1y21logKss2Nlog(2π)
    参考:https://zhuanlan.zhihu.com/p/75589452
    PS:这篇写的更详细
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值