贝叶斯线性回归(单输出)

本文主要依据Pattern Recognition and Machine Learing第三章的内容展开。

1线性模型

假设有一个 D 维的输入 x ,和一个连续的目标输出 t ,我们可以利用一组固定的基函数 ϕi(x),i=0,,M 的线性组合(组合系数为 w0,,wM ),得到一个线性回归模型:

t=i=0Mwiϕi(x)

其中, ϕ0(x)=1 , w0 为偏置项,则上式可以简记为:
t=y(x,w)=i=0Mwiϕi(x)=wϕ(x)

其中 w=(w0,,wM) ϕ=(ϕ0,,ϕM)

当有 N D 维的输入 X=(x1,,xN) 和对应的目标输出 t=(t1,,tN) 时,同理。

由此可见,虽然模型叫做贝叶斯线性回归模型,但它的线性是体现在参数 w 上。而这个模型的线性与否实际上取决于 ϕ(x) ,我们将其称为基函数。下面简要介绍线性基函数、多项式基函数和高斯基函数。

1.1线性基函数

在所有基函数中,最为简单的便是线性基函数,它是令:

y(x,w)=w0+w1x1++wDxD
其中
x=(x1,,xD)

1.2多项式基函数

在多项式基函数中,最简单的基函数是单变量 x 的一元多项式按照幂次大小进行组合,此时:

y(x,w)=w0+w1x1++wMxM

当输入变量为多维时,基函数会变得较为复杂,例如当 x=(x1,x2) 时:

y(x,w)=w0+w11x1+w12x2+w21x21+w22x1x2+w23x22++wM1xM1+

因此,通常情况下,我们使用多项式作为基函数时,会假定其输入变量 x 的维度 D 和基函数个数 M 均较小;或者 x 内各个特征 xi 之间相互独立,则上式中所有变量交叉项全为0,只存在 xji,i{ 1,,D},j{ 1,,M} 的项。

1.3高斯基函数

高斯基函数又称径向基函数RBF,形如:

ϕi(
  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值