简述贝叶斯估计

【机器学习】贝叶斯线性回归(最大后验估计+高斯先验) - qq_32742009的博客 - CSDN博客
https://blog.csdn.net/qq_32742009/article/details/81485887

贝叶斯优化(BO)的迭代公式:
1612911-20190405153548154-758520909.png

  • 极大似然函数(后验概率最大化):
  • 1612911-20190405153630014-2051555308.png
  • 对数似然:
  • 1612911-20190405153655502-624311442.png
  • 最后化简:(这里表明每计算一次w是O(D^3)的复杂度,其中计算y(xi,w)为D2(w乘以f(xi)为D,生成f(xi)为D),求L2范数为D,计算y(xi,w)求和为N,计算w2为D2,总复杂度为max(NDD2,D2)=N*D3)
  • 1612911-20190405153728106-2078342472.png
  • 1612911-20190405153738671-224977156.png
  • 1612911-20190405153747757-321793851.png
  • 由于要迭代N步,每步处理一个DD矩阵(D为特征维数),因此算法复杂度为O(N D^3);且注意,当N逐渐增大的时候,BO算法无限趋近LM算法,但BO算法的开销更大,因此BO不适用于大量样本点的情形,收敛性待证
  • 但BO算法在样本点过少的情形下,面临着拟合函数参数波动过大的情况(过于依赖前面的样本点)

边缘概率:Marginal likelihood

贝叶斯优化(Bayesian Optimization)深入理解 - marsggbo - 博客园 https://www.cnblogs.com/marsggbo/p/9866764.html
https://app.sigopt.com/static/pdf/SigOpt_Bayesian_Optimization_Primer.pdf

扩展阅读:
http://papers.nips.cc/paper/7917-scalable-hyperparameter-transfer-learning.pdf
https://arxiv.org/pdf/1802.02219.pdf

类似方法:数据同化【在复杂系统中根据更新数据动态地更新模型】
https://earth.esa.int/documents/973910/979015/oneill1-2.pdf

1612911-20190405153903247-1598623234.png
1612911-20190405153912754-1411519898.png

教程:
http://cerea.enpc.fr/HomePages/bocquet/teaching/assim-mb-en.pdf

贝叶斯与数据同化:
https://pdfs.semanticscholar.org/cdb2/10822ceb3cccb6388ad14b2642380e6f36a5.pdf
https://assimilation.kaust.edu.sa/Media%20%20Image%20Gallery/Papers/final_mwr2012_new.pdf

转载于:https://www.cnblogs.com/joezou/p/10658883.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值