机器学习理论基础学习17---贝叶斯线性回归(Bayesian Linear Regression)

本文详细介绍了贝叶斯线性回归,对比了它与传统线性回归的区别,强调了其在防止过拟合和充分利用数据方面的优势。通过探讨inference和prediction问题,阐述了贝叶斯回归的工作原理。尽管存在计算成本高的缺点,但贝叶斯回归因其自适应能力和正则化效果受到重视。
摘要由CSDN通过智能技术生成

本文顺序

一、回忆线性回归

线性回归用最小二乘法,转换为极大似然估计求解参数W,但这很容易导致过拟合,由此引入了带正则化的最小二乘法(可证明等价于最大后验概率)

 

二、什么是贝叶斯回归?

基于上面的讨论,这里就可以引出本文的核心内容:贝叶斯线性回归。

贝叶斯线性回归不仅可以解决极大似然估计中存在的过拟合的问题。

  • 它对数据样本的利用率是100%,仅仅使用训练样本就可以有效而准确的确定模型的复杂度。
  • 在极大似然估计线性回归中我们把参数看成是一个未知的固定值,而贝叶斯学派则把看成是一个随机变量。 

贝叶斯回归主要研究两个问题:infer

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值