PPCA(Probability PCA)

伯克利的机器学习课的note当中简要介绍了一下PPCA, 但是我看了感觉没写什么东西。Yu姐上PPCA那节课我翘了,导致我对于PPCA几乎是一无所知。碰巧翻了一下工大自己的机器学习课的ppt,翻到了关于PPCA的内容,所以就结合CS189的note了解了一下PPCA。

1. Key assumptions

PPCA假设所有的样本点都取样于某个分布 x ∈ R d {\bf x} \in {\Bbb R}^{d} xRd,对于每个点 x i x_i xi,都有一个 z i z_i zi与之对应,取样于某个分布 z ∈ R k {\bf z} \in {\Bbb R}^{k} zRk, 满足以下条件:
x = W z + μ + ϵ , W ∈ R d × k , μ ∈ R d , ϵ ∈ R d , ϵ ∼ N ( 0 , σ 2 I ) {\bf x} = W{\bf z}+\mu +\epsilon , W \in {\Bbb R}^{d \times k}, \mu \in {\Bbb R}^{d }, \epsilon \in {\Bbb R}^{d}, \epsilon \sim N(0,\sigma^2I) x=Wz+μ+ϵ,WRd×k,μRd,ϵRd,ϵN(0,σ2I)
其中 W , μ W,\mu W,μ都是常数, ϵ \epsilon ϵ i i d iid iid 的 noise

这个 z {\bf z} z 被称为latent variable

关于latent variable,可以简单的理解为我们看不见(观测不到)的变量,是我们希望从可观测到的变量推断的一个变量。

因为高斯分布的条件分布、联合分布都是高斯分布,所以,我们可以得到:
E [ x ] = E [ μ + W z + ϵ ] = μ E[x] = E[\mu + Wz + \epsilon] = \mu E[x]=E[μ+Wz+ϵ]=μ
C = C o v [ x ] = E [ ( μ + W z + ϵ − μ ) ( μ + W z + ϵ − μ ) T ] = E [ ( W z + ϵ ) ( W z + ϵ ) T ] = W W T + σ 2 I C = Cov[x]=E[(\mu+Wz+\epsilon -\mu)(\mu+Wz+\epsilon -\mu)^T] = E[(Wz+\epsilon)(Wz+\epsilon)^T] = WW^T + \sigma^2I C=Cov[x]=E[(μ+Wz+ϵμ)(μ+Wz+ϵμ)T]=E[(Wz+ϵ)(Wz+ϵ)T]=W

  • 2
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值