【监督学习】第五课高斯过程(gussian process,最大后验,岭回归)(上)

这篇博客回顾了线性回归,并介绍了如何引入正则化,特别是岭回归。通过最小二乘法和对偶写法,解释了贝叶斯方法中的最大后验概率原理。讨论了数据点的正态分布假设,以及在高斯分布框架下,如何推导出岭回归的解与最大后验解。
摘要由CSDN通过智能技术生成

这一课基本上就回忆了一下前面的各种regression ,然后和传统统计与贝叶斯思想联系起来。

还是线性回归

对于一个线性系统

Xw = y

假设y为观测值,那么观测值 为 真实值和噪音的和。y = Real + noise

加入正则化



那么现在对w求解,使用最小二乘法,满足预测值与观测值得平方差最小。

也就是他们的差的向量(y - Xw)的dot product 点积。




对偶写法

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值