- 博客(16)
- 资源 (2)
- 收藏
- 关注
原创 看topic modelling paper 要分成两类看
1. topic modelling 本身的理论,关注nips,理论问题包括sparse, inference,prior选择,model的比较2. topic modelling 在product review中的应用
2013-09-26 16:08:34 743
转载 smooth function
In mathematical analysis, a function that has derivatives of all orders is called smooth.
2013-09-17 09:41:52 1085
原创 kronecker delta 与 dirac delta 关系
ref: http://en.wikipedia.org/wiki/Dirac_delta_functionDirac delta :The Dirac delta can be loosely thought of as a function on the real line which is zero everywhere except at the origin, where
2013-09-17 09:40:21 5952
原创 nonparametric Bayesian model motivation
Given a set of observed data, two clusters generated by GMM of two components, we need to find a model to fit them. For parametric model, we can see the observed data's appearance or empiric
2013-09-16 23:08:41 995
原创 ML1.6 KNN
this is a discriminative model, model p(y|x_n+1), i.e we don't care about the prior on our predictive independent variable x_n+1, 认为它没有prior knowledge.depending on the norm, find the k nearest
2013-09-16 22:53:42 829
转载 记kronecker delta function
http://en.wikipedia.org/wiki/Kronecker_deltaIn mathematics, the Kronecker delta or Kronecker's delta, named after Leopold Kronecker, is a function of two variables, usuallyintegers. The func
2013-09-16 21:13:28 5412
转载 Deduction & Induction
ref:http://www.psych.utah.edu/gordon/Classes/Psy4905Docs/PsychHistory/Cards/Logic.htmlLogical arguments are usually classified as either 'deductive' or 'inductive'.Deduction: In the process of ded
2013-09-04 09:48:23 2057
原创 nonparametric Bayesian 的motivation
见PRMLgiven a data sample, 我们要求其分布,如果是parametric的Bayesian,我们会设定一个model ,假定是gaussian,参数为u,theta,但是最后可能整个参数空间的值,after model selection,都不能很好的fit 这个data sample。所以我们需要换一个model,可以换成GMM,再tuning 其参数,
2013-09-04 08:28:07 834
原创 很多Machine Learning的问题都可以归结为regression
General的regression,我们看做,given x1 vector, x2 vector,..., xn vector,来求fit 这个data sample 最合适的function or 分布,首先可以用polynomial的分布,可能这个分布无论如何tuning 参数weight,也不能很好的fit these data,然后可以考虑使用其他的分布形式,但是最
2013-09-04 08:22:39 699
原创 Generative& Discriminative model
Given (x1,y1),(x2,y2),....,(xn,yn);Discriminative 就是model p(y|x), 给定每个x,其对应y的分布Generative 就是model p(x,y) = p(y)p(x|y), 如果y为class的话,就相当于 我们是model (x,y)的产生过程,先根据P(y)选择一个class,再从这个class的分布p(x|y)
2013-09-04 08:17:45 813
原创 model selection&averaging
http://www.gatsby.ucl.ac.uk/~ywteh/teaching/npbayes/mlss2007.pdfhttp://mlg.eng.cam.ac.uk/tutorials/07/ywt.pdfmodel selection 就是说 model有很多参数,参数空间组成了很多不同的model,model selection就是选择一个最合适的paramer
2013-09-03 19:27:57 801
转载 Dirichlet distribution的另一种理解,对应的如何解释dirichlet process
建议参考:http://en.wikipedia.org/wiki/Dirichlet_process 翻译:https://docs.google.com/document/d/1Luxn2OqVB-b1VxbB5kRPIGhuT4a_u-cpxCjNy89iBYU/edit来源:http://hi.baidu.com/vyfrcemnsnbgxyd/item/2f10ecc
2013-09-03 09:28:28 908
转载 topic model 的总结
topic model 是一种应用十分广泛的产生式模型(generative model),在IR, NLP,ML都有广泛的应用,本文将对目前已有的topic model进行分类总结,然后选择几个代表性的topic model进行较为详细的介绍,从而理解topic model 的思想,以及怎么应用。topic model最经典的模型之一是LDA(latent dirichlet a
2013-09-02 18:26:06 1937
转载 topic model的分类及设计原则
topic model的介绍性文章已经很多,在此仅做粗略介绍,本文假设读者已经较为熟悉Topic Medel。Topic Model (LDA)认为一个离散数据集合(如文档集合,图片集合,为行文方便,本文统统以文档集合作为描述对象,其他的数据集合只需换掉对应的术语即可)是由隐含在数据集合背后的topic set 生成的,这个set中的每一个topic都是词的概率分布。对于文档中的每一篇文档
2013-09-02 18:26:01 1017
转载 Dirichlet Process & Dirichlet Distribution
狄利克雷过程(dirichlet process )是目前变参数学习(non parameter)非常流行的一个理论,很多的工作都是基于这个理论来进行的,如HDP(hierarchical dirichlet process)。下面我们谈谈dirichlet process的五种角度来理解它。第一种:原始定义:假设存在在度量空间Θ上的分布H和一个参数α,如果
2013-09-02 18:16:08 3182 1
原创 dirichlet process 中CRP的马太效应
RT。 CRP中 第n+1个顾客选择第几个桌子的问题,是服从 先把某个table坐满,即人越多的桌子,越容易坐满,人越少的桌子越难坐满。这就是马太效应(Matthew Effect)----两极分化, 就如同创业投资一样,有钱的人越来越容易赚钱,没钱的越来越穷。
2013-09-02 17:58:23 1066
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人