【深度之眼花书训练营第五期】第一周-数学基础-课程3

第一周-数学基础的学习大纲

1. 矩阵对角化,SVD分解以及应用
2. 逆矩阵,伪逆矩阵
3. PCA原理与推导
4. 极大似然估计,误差的高斯分布与最小二乘估计的等价性
5. 最优化,无约束,有约束,拉格朗日乘子的意义,KKT条件

课程3 极大似然估计,误差的高斯分布与最小二乘估计的等价性

假设随机变量 X~P(X; θ)
现有样本x1,x2,x3,…,xN
定义似然函数为L=P(x1;θ)P(x2;θ)P(x3;θ)…P(xN;θ)
对数似然函数为L=InL=Ln[P(x1;θ)P(x2;θ)P(x3;θ)…P(xN;θ)]
极大似然函数为max L

示例如下:(由于部分公式展示困难,所以采用图像的方式展示)
在这里插入图片描述
如图上所示,数学期望为μ、方差为σ,其余的为简单的推到过程。

x1, x2, x3, … ,xN , x(i)属于Rn
y1, y2, y3, … ,yN , y(i)属于R
yi = wTxi , w属于Rn
拟合误差 : ei = yi - wTxi
若设ei ~ N(0,1)
即 ei ~ (1/2π ^ 2 ) e ^ ( - (ei ^ 2) / 2)

似然函数 L = Ln[ (1/2π ^ 2 ) e ^ ( - (e1 ^ 2) / 2) (1/2π ^ 2 ) e ^ ( - (e2 ^ 2) / 2) (1/2π ^ 2 ) e ^ ( - (e3 ^ 2) / 2) … , (1/2π ^ 2 ) e ^ ( - (eN ^ 2) / 2) ]
即 L = -NLn( 2π ^ 2 ) - 1/2( e1 ^ 2 + e2 ^ 2 + e2 ^ 2 + … + eN ^ 2 )

最大化 L 等价于 最小化(e1 ^ 2 + e2 ^ 2 + e2 ^ 2 + … + eN ^ 2 )
min(y1 - wTx1) ^ 2 + (y2 - wTx2) ^ 2 + (y3 - wTx3) ^ 2 + … + (yN- wTxN) ^ 2 = J

注:由于公式表示的困难,即使表示出来了也难以看懂,以后的大部分将以图像的形式展示。

在这里插入图片描述
如上图所示为紧着着文字部分的推导过程,有地方不懂的可以去回看先前发布的文章。

本次课程的内容就分享到这里。后续将继续更新课程. . . .

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值