A Cookbook for Machine Learning: Vol 1

通常的情况是:你拥有某个模型参数 θ θ 。你试图优化某个客观标准,但是采用下面列的方式,优化问题不可行或者很难。如果你可以的话,那么你可以应用相应的转换到你的问题上。如果现在这个问题你可以有效的优化,那么很好。如果不能,你可以递归的应用这些转换直到它可以(优化)。

对于Vol1,我们首先陈述下面的问题转换:

变分边界(variational bound)
对抗博弈(Adversarial game)
进化策略(Evolution Strategy)
凸松弛法(convex relaxation)

变分边界:
典型问题:通常因为损失函数 f(θ) f ( θ ) 涉及到很难处理的边缘化,因此它(损失函数)很难计算。我很难计算它,更别说最小化它了。
解决方案:
让我们构造一系列的通常可微的上界:

f(θ)infψg(θ,ψ) f ( θ ) ≤ inf ψ g ( θ , ψ )

并且求解优化问题:
θ,ψargminθ,ψg(θ,ψ) θ ∗ , ψ ∗ → argmin θ , ψ g ( θ , ψ )

从技术上讲,一旦你完成这个优化,那么可以抛弃辅助参数 ψ ψ ∗ ,虽然这个辅助变量通常本身有意义和有用,并且通常是针对近似推断(例如VAE的识别模型)(有意义和有用的)
变换技巧:
Jensen’s 不等式:一个凸函数的均值永远不会低于均值对应的函数值。 Jensen不等式通常出现在下面的标准证据下界(ELBO)推导的一些变体中:
logp(x)=logp(x,y)dy=logq(y|x)p(y,x)q(y|x)dyq(y|x)logp(y,x)q(y|x)dy(7)(8)(9) (7) − log ⁡ p ( x ) = − log ⁡ ∫ p ( x , y ) d y (8) = − log ⁡ ∫ q ( y | x ) p ( y , x ) q ( y | x ) d y (9) ≤ − ∫ q ( y | x ) log ⁡ p ( y , x ) q ( y | x ) d y

重参数化技巧,在变分推断中,我们通常碰到下面形式的梯度:
θiExqθ[f(x,qθ(x))] ∂ ∂ θ i E x ∼ q θ [ f ( x , q θ ( x ) ) ]

其中变量(x)的概率密度函数(pdf)在积分中。如果我们可以找到一个函数 h:(E,Θ)X h : ( E , Θ ) ↦ X ,它关于第二个参数是可微的,并且 E E 上的概率分布 pE p E 很容易采样,那么下式成立:
x=h(ϵ,θ),ϵpϵxqθ, x = h ( ϵ , θ ) , ϵ ∼ p ϵ ⟺ x ∼ q θ ,

我们可以使用下面(关于)积分的重新表示,这在变分上界中经常碰到:
θiExqθ[f(x,qθ(x))]=Eϵpϵ[θif(h(ϵ,θ),qϵ(h(ϵ,θ)))] ∂ ∂ θ i E x ∼ q θ [ f ( x , q θ ( x ) ) ] = E ϵ ∼ p ϵ [ ∂ ∂ θ i f ( h ( ϵ , θ ) , q ϵ ( h ( ϵ , θ ) ) ) ]

A Monte Carlo estimators to this expectation typically have substantially lower variance than REINFORCE estimators to the same quantity.

参考文献:
1.http://www.inference.vc/design-patterns/
2.http://www.sohu.com/a/205103359_465975
3.https://blog.csdn.net/weixin_40132961/article/details/78572169

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值