- 博客(15)
- 收藏
- 关注
转载 拉格朗日乘数法
在数学最优化问题中,拉格朗日乘数法(以数学家约瑟夫·路易斯·拉格朗日命名)是一种寻找变量受一个或多个条件所限制的多元函数的极值的方法。这种方法将一个有n 个变量与k 个约束条件的最优化问题转换为一个有n +k个变量的方程组的极值问题,其变量不受任何约束。这种方法引入了一种新的标量未知数,即拉格朗日乘数:约束方程的梯度(gradient)的线性组合里每个向量的系数。此方法的证明牵涉到偏微分,
2014-09-16 00:14:44 1598
转载 条件随机场文献阅读指南
与最大熵模型相似,条件随机场(Conditional random fields,CRFs)是一种机器学习模型,在自然语言处理的许多领域(如词性标注、中文分词、命名实体识别等)都有比较好的应用效果。条件随机场最早由John D. Lafferty提出,其也是Brown90的作者之一,和贾里尼克相似,在离开IBM后他去了卡耐基梅隆大学继续搞学术研究,2001年以第一作者的身份发表了CRF的经典论文
2014-09-16 00:13:30 1748
转载 MaxEnt: 最大熵模型(Maximum Entropy Models)(二)
上面《MaxEnt: 最大熵模型(Maximum Entropy Models)(一)》其实就是讲了下熵,下面我们继续最大熵模型(Maximum Entropy Models)。最大熵原理指出,当我们需要对一个随机事件的概率分布进行预测时,我们的预测应当满足全部已知的条件,而对未知的情况不要做任何主观假设。在这种情况下,概率分布最均匀,预测的风险最小。因为这时概率分布的信息熵最大,所以人们
2014-09-15 23:38:32 3530
转载 关于斯坦福句法剖析器 -- 答网友
转载自:http://blog.sina.com.cn/s/blog_72d083c701017r9t.html 冯志伟有网友问我:Stanford parser 和Berkeley parser 是哪种类型的分析器?我觉得,Stanford parser基本上是一个词汇化的概率上下文无关语法分析器,同时也
2014-09-14 19:32:33 4893
转载 Neural Networks (Deep Learning) , NLP and Text Mining
转载自:http://www.zhizhihu.com/html/y2014/4662.html最近翻了一下关于Deep Learning 或者 普通的Neural Network在NLP以及Text Mining方面应用的文章,包括Word2Vec等,然后将key idea提取出来罗列在了一起,有兴趣的可以下载看看:http://pan.baidu.com/s/1sjNQEfz
2014-09-14 15:23:44 3342
转载 MaxEnt: 最大熵模型(Maximum Entropy Models)(一)
刚看完HMM,因为有个ME-HMM方法,所以再看看最大熵模型,最后再把CRF模型看看,这一系列理论大体消化一下,补充一下自己的大脑,方便面试什么的能够应付一些问题。多读书,多思考,肚子里才有东西。==========什么是熵?咱们这里只看信息以及自然界的熵吧。《Big Bang Theory》中Sheldon也经常把这个熵挂在嘴边。在咱们的生活中,你打碎了一块玻璃,
2014-09-14 15:18:09 4615 1
转载 [nlp笔记]最大熵模型
转载自:http://www.douban.com/note/274809504/MaxEnt这几节主要讲了几个分类器(classfier),分类器的作用是将数据按照模型分类(废话==)。模型通过训练集来训练参数,还得有特征,以便将训练集中的数据归类来训练参数。比较常见的分类器是把数据分成两类(binary),这两类分别是0、1或者true/false. 但实际情形中我们关心的是给
2014-09-12 21:13:34 1487
转载 尺度不变特征变换(SIFT)匹配算法详解
Scale Invariant Feature Transform(SIFT)Just For Funzdd zddmail@gmail.com or (zddhub@gmail.com)对于初学者,从David G.Lowe的论文到实现,有许多鸿沟,本文帮你跨越。如果你学习SIFI得目的是为了做检索,也许OpenSSE更适合你,欢迎使用。1、
2014-09-12 20:40:20 31949 4
转载 Deep Learning 学习随记(三)Softmax regression
转载自:http://www.cnblogs.com/bzjia-blog/p/3366780.html讲义中的第四章,讲的是Softmax 回归。softmax回归是logistic回归的泛化版,先来回顾下logistic回归。logistic回归:训练集为{(x(1),y(1)),...,(x(m),y(m))},其中m为样本数,x(i)为特征。logistic
2014-09-12 20:05:35 2764
转载 对线性回归,logistic回归和一般回归的认识
【转载时请注明来源】:http://www.cnblogs.com/jerrylead JerryLead 2011年2月27日 作为一个机器学习初学者,认识有限,表述也多有错误,望大家多多批评指正。1 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识。前四节主要讲述了回归问题,回归属于有监督学习
2014-09-12 16:45:58 825
转载 从最大似然到EM算法浅解
转载自:http://blog.csdn.net/zouxy09/article/details/8537620写的很好,好好地学习了一下zouxy09@qq.comhttp://blog.csdn.net/zouxy09 机器学习十大算法之一:EM算法。能评得上十大之一,让人听起来觉得挺NB的。什么是NB啊,我们一般说某个人很NB,是因为他能
2014-09-10 16:16:42 744
原创 ssh整合报错,nested exception is java.lang.NoSuchFieldError: TRACE
Invocation of init method failed; nested exception is java.lang.NoSuchFieldError: TRACECaused by: java.lang.NoSuchFieldError: TRACEat org.jboss.logging.Log4jLogger.translate(Log4jLogger.java:64)at
2014-09-08 03:16:51 11868
原创 两个国外教授对于申请PhD的建议
HOWTO: Get into grad school for science, engineering, math and computer science[article index] [email me] [@mattmight] [+mattmight] [rss]Juniors and seniors often ask me how to get into a Ph.D.
2014-09-06 23:05:54 2682
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人