chap3 Linear Models for Regression笔记

1.关于curve fitting的几种方法

问题:给定 N 个样本数据点及其对应的函数值,找出该函数

minimize the sum of squares of error: 假设函数的形式是 y(x,w),其中 w 是该函数的待估计参数,x 则是 input variable;该方法认为,该函数应该使得平方误差之和最小化:
在这里插入图片描述
MLE:假设每个观察到的样本数据点的函数值的 t 是一个以真实的函数 y(x, w)均值的高斯 分布产生的。然后求使似然最大的参数值 w,即完成参数估计。

MAP:与 MLE 类似,不过是求解使后验概率最大的参数值 w。

minimize the sum of squares of error with regularizer:往无regularizer的E(w)加入一个 regularizer,例如:
在这里插入图片描述
在以上问题中:
MLE 等价于 minimize the sum of squares of error
MAP 等价于 minimize the sum of squares of error with regularizer (MAP with Gaussian prior)

2.什么是linear model

函数关于参数,而不是 input variable 是线性,则是线性模型。
例如:linear basis function model
在这里插入图片描述
这里面,basis function 可以任意的选择,而函数 y(x, w)关于 w 始终是线性的。
Basis function的选择有:
Polynomial, Gaussian, Logistic sigmoid function, Fourier basis, wavelets

3.Loss function for regression,Expected Loss最小化,最佳预测即regression function

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.Frequentist的model complexity理论:Bias-Variance trade-off

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5.实际的bias-variance计算

在这里插入图片描述
在这里插入图片描述

6.Bayesian的model complexity理论:Model evidence/marginal likelihood

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

7.Bayesian方法

在这里插入图片描述

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值