prml理论相关
deltaququ
这个作者很懒,什么都没留下…
展开
-
概率密度采样2
拒绝采样前面提到通过函数转换的方法来对p(z)采样,然而问题是求不定积分和逆这两个过程对于大多数概率密度都是不可行的。因此必须要考虑其他的方法。 我们可以这样思考,对于p(z),如何取样呢?我们把p(z)画在二维平面上,往上均匀撒点,落在p(z)内对应的z就是样本点,否则就丢弃。这就是下面提出的拒绝采样的思路。拒绝采样由于直接撒点,必然会拒绝掉大部分随机点,这是非常低效的,因此我们希望用一个容易采翻译 2015-05-04 19:06:56 · 3411 阅读 · 0 评论 -
概率采样3——MCMC
前面的采样方法受限于高维,这里MCMC解决了这个问题。我们知道很多MC都有一个稳态特性,此时一个MC对应于一个概率分布,如果能使这个分布和要采样的分布p(z)一样,那么每次对p(z)的采样就等同于状态的一次转移。如果我们将转移概率分成两个部分:建议转移和判断转移,即先从当前状态和建议转移获得样本,然后通过判定标准判断是否接受样本,这样就可以实现对该MC的每次状态转移采样。如果MC已经达到稳定状态,那原创 2015-05-04 22:09:24 · 2216 阅读 · 0 评论 -
LDA变分法和采样法
目前比较方便的LDA解法是gibbs采样,但是对于改进型LDA,如果分布不再是dirchlet分布,p(z|w)可能就不太好求了(这里z代表隐藏变量,w是观察量),只能用变分法。LDA变分EM算法LDA主要完成两个任务,给定现有文档集合D,要确定超参数α,β\alpha,\beta值;或者给一篇新的文档,能够依据前面的超参数来确定隐藏变量θ,z\theta,z分布。其实后面一个任务可以归到前面中,因原创 2015-05-21 15:07:37 · 5266 阅读 · 3 评论 -
LDA模型改进
这里只是说明模型的概率图,具体实现算法以后研究。文章综述参考Probabilistic topic models (DaviD m. Blei)LDA模型文献参考LDA数学八卦、parameter estimation for text analysis。 思路:类似聚类,认为有一个隐藏的主题作为词标签,对词可分类;此外认为文档中词可交换、文档可交换、主题个数固定且不改变。文档每个词的主题题标生成原创 2015-05-17 16:35:09 · 7723 阅读 · 0 评论 -
第三章 回归线性模型
Linear models for regression概念regression: predict continuous t/t given {xi_{i}} linear: linear functions of adjustable parameters (1)linear funcs of input (2)fixed non-linear funcs原创 2015-11-20 22:59:41 · 1729 阅读 · 1 评论 -
MRI 深度串联网络代码
1、论文:A Deep Cascade of Convolutional Neural Networks for MR Image Reconstruction 2、github: https://github.com/js3611/Deep-MRI-Reconstruction由于版本问题,代码执行问题非常之多,先备忘如下: 按照作者requirements的要求,使用anaconda依次下载原创 2018-04-09 00:09:39 · 1119 阅读 · 2 评论