contrastive divergence 算法

原文链接在这里http://blog.sina.com.cn/s/blog_5980285201014pwy.html


把 <<[2002 Nuural Computation, 675]#######training products of experts by minimizing contrastive divergence>>这篇论文看了一遍,其实只看了一半


觉得PoE和contrastive divergence以及RBM学习算法这部分可以过了


主要意思是这样的:
1.RBM是PoE的一个特例
2.PoE可以用contrastive divergence来进行学习
3.contrastive divergence的学习方法大致是这样的:
本来是要进行极大似然学习的,也就是计算目标函数对权重的偏导数,并且使权重沿偏导数方向移动
但是偏导数计算量特别大,因为涉及到了Gibbs抽样(需要无限次),所以不用这个方法
发现了极大似然学习的目标函数等价于KL散度
更换了目标函数:极小化KL散度与CD1-KL散度的差
对这个新的目标函数求偏导数之后发现有两项是很容易计算的,第三项可以忽略掉
而且在实际应用中效果还不错


接下来的工作:
1.helmholtz machines and wake-sleep learning
2.啃大头。。。。





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值