NLP
lwfcgz
北大小硕,各种渣。。。
展开
-
生成模型(Generative Model)Vs 判别模型(Discriminative Model)
看HMM的是很看到了生成模型,于是提出了一个问题,什么是生成模型?查了一下资料,总算大致了解了,把内容贴在这里,以备翻阅。 判别模型(Discriminative Model),又可以称为条件模型,或条件概率模型。估计的是条件概率分布(conditional distribution),p(class|context)。利用正负例和分类标签,主要关心判别模型的边缘分布。其目标函数转载 2013-08-01 15:06:33 · 1387 阅读 · 0 评论 -
常见的nlp工具包
1、GeniaTagger : POS tagging, shallow parsing, and named entity recognition for biomedical text2、CoreNLP : POS tagger, the named entity recognizer (NER), the parser, and the coreference resolution转载 2013-09-04 14:35:48 · 2509 阅读 · 0 评论 -
BP网络
科普:神经网络是一种运算模型,由大量的节点(或称“神经元”,或“单元”)和之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重(weight),这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近转载 2013-11-03 22:37:25 · 1537 阅读 · 0 评论 -
MaxEnt: 最大熵模型(Maximum Entropy Models)
转自:http://www.zhizhihu.com/html/y2011/3489.html刚看完HMM,因为有个ME-HMM方法,所以再看看最大熵模型,最后再把CRF模型看看,这一系列理论大体消化一下,补充一下自己的大脑,方便面试什么的能够应付一些问题。多读书,多思考,肚子里才有东西。==========什么是熵?咱们这里只看信息以及自然界的熵吧。《Bi转载 2014-02-28 13:36:00 · 1379 阅读 · 0 评论 -
中文分词技术
转载自:http://blog.csdn.net/byxdaz/article/details/5815677一、 为什么要进行中文分词?词是最小的能够独立活动的有意义的语言成分,英文单词之间是以空格作为自然分界符的,而汉语是以字为基本的书写单位,词语之间没有明显的区分标记,因此,中文词语分析是中文信息处理的基础与关键。Lucene中对中文的处理是基于自动切分的单字切分,或转载 2012-04-04 00:02:26 · 1899 阅读 · 0 评论 -
Deep Learning基本思想和方法
深度学习(Deep Learning),又叫Unsupervised Feature Learning或者Feature Learning,是目前非常热的一个研究主题。本文将主要介绍Deep Learning的基本思想和常用的方法。一. 什么是Deep Learning?实际生活中,人们为了解决一个问题,如对象的分类(对象可是是文档、图像等),首先必须做的事情是如何来表达一转载 2014-10-25 14:29:29 · 625 阅读 · 0 评论 -
常用资源
Deep Learning(深度学习):ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):一ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):二Bengio团队的deep learning教程,用的theano库,主要是rbm系列,搞python的可以参考,很不错。deeplearning.net主页,里面包含的信息量非常多,转载 2014-11-16 11:53:27 · 2001 阅读 · 0 评论