回归分析知识记录

5.1 概述

回归:预测的结果y是连续函数值

性能评价:均方误差

泛化误差可分解为偏差、方差和噪声之和 E ( f ; D ) = b i a s 2 ( x ) + v a r ( x ) + ε 2 E(f;D)=bias^{2}(x)+var(x)+\varepsilon ^{2} E(f;D)=bias2(x)+var(x)+ε2

5.2 最小二乘估计

目标函数:最小误差平方和

min ⁡ θ ∑ i = 1 n ( y t − θ T x t − θ 0 ) 2 \displaystyle \min_{\theta}\sum_{i=1}^{n}(y_{t}-\theta^{T}x_{t}-\theta_{0})^{2} θmini=1n(ytθTxtθ0)2

[ θ ^ θ 0 ^ ] = ( X T X ) − 1 X T y \begin{bmatrix} \hat{\theta} \\\hat{\theta_{0}} \end{bmatrix}=(X^{T}X)^{-1}X^{T}y [θ^θ0^]=(XTX)1XTy

5.3 最大似然估计

高斯误差的最大似然估计=最小二乘估计

5.4 最大后验估计

高斯分布的最大后验估计=正则化的最小二乘估计

正则项解决过拟合问题

5.5 扩展的非线性模型

线性回归: y ( x , w ) = w 0 + w 1 x 1 + . . . + w D x D y(x,w)=w_{0}+w_{1}x_{1}+...+w_{D}x_{D} y(x,w)=w0+w1x1+...+wDxD

扩展的非线性回归: y ( x , w ) = w 0 + ∑ j = 1 M − 1 w j ϕ j ( X ) y(x,w)=w_{0}+\sum_{j=1}^{M-1}w_{j}\phi _{j}(X) y(x,w)=w0+j=1M1wjϕj(X)

5.6 误差分析

偏差、方差和噪声

最小二乘法是无偏估计

正则化最小二乘估计是有偏估计:

  • 使参数估计更加稳定
    • 相当于增加正则项
    • 相当于加入白噪声
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值