这一课基本上就回忆了一下前面的各种regression ,然后和传统统计与贝叶斯思想联系起来。
还是线性回归
对于一个线性系统
Xw = y
假设y为观测值,那么观测值 为 真实值和噪音的和。y = Real + noise
加入正则化
那么现在对w求解,使用最小二乘法,满足预测值与观测值得平方差最小。
也就是他们的差的向量(y - Xw)的dot product 点积。
对偶写法
这一课基本上就回忆了一下前面的各种regression ,然后和传统统计与贝叶斯思想联系起来。
还是线性回归
对于一个线性系统
Xw = y
假设y为观测值,那么观测值 为 真实值和噪音的和。y = Real + noise
加入正则化
那么现在对w求解,使用最小二乘法,满足预测值与观测值得平方差最小。
也就是他们的差的向量(y - Xw)的dot product 点积。
对偶写法