![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP
scanf_yourname
这个作者很懒,什么都没留下…
展开
-
哥伦比亚大学NLP 第一章
哥伦比亚大学NLP 第一章原创 2019-02-03 14:45:13 · 296 阅读 · 0 评论 -
哥伦比亚NLP 第二章
哥伦比亚NLP 第二章目录标记问题(Tagging(Tagging(Tagging problem)problem)problem)生成模型(Generative(Generative(Generative model)model)model)噪声通道模型(Noisy−channel(Noisy-channel(Noisy−channel model)model)model)隐藏马尔...原创 2019-02-04 19:55:50 · 340 阅读 · 0 评论 -
哥伦比亚大学 NLP 第三章(第一部分)
哥伦比亚大学 NLP 第三章摘要本章主要讲述了一个叫做ParsingParsingParsing的问题,ParsingParsingParsing的中文翻译叫做解析,是自然语言处理中非常重要的一个问题之一。简介什么是解析ParsingParsingParsingParsingParsingParsing的目的就是为了分析句法结构,就是确定一个句子中每一个单词充当什么成分,比如:主语...原创 2019-02-10 01:06:45 · 336 阅读 · 0 评论 -
哥伦比亚大学 NLP 第三章(第二部分)
哥伦比亚大学 NLP 第三章(第二部分)目录概率上下文无关CKYCKYCKY 算法本部分关于上下文无关相关符号的约定均基于第一部分,本部分将继续沿用不再定义第三章第一部分传送门:https://blog.csdn.net/scanf_yourname/article/details/86777756概率上下文无关文法(PCFGs)(PCFGs)(PCFGs)为什么引入概率上下文无...原创 2019-02-10 23:39:07 · 231 阅读 · 0 评论 -
Word2Vec 与《Distributed Representations of Words and Phrases and their Compositionality》学习笔记
什么是Word2Vec目录词嵌入(word embedding)词嵌入的特点嵌入矩阵Skip−gramSkip-gramSkip−gram模型分层SoftmaxSoftmaxSoftmax (HierarchicalSoftmax)(Hierarchical Softmax)(HierarchicalSoftmax)负采样词嵌入(word embedding)...原创 2019-07-04 18:30:47 · 3168 阅读 · 0 评论 -
Seq2Seq &论文:Learning Phrase Representations......Machine Translation学习笔记
论文:LearningLearningLearning PhrasePhrasePhrase RepresentationsRepresentationsRepresentations usingusingusing RNNRNNRNN Encoder−DecoderEncoder-DecoderEncoder−Decoder forforfor StatisticalStatisticalSta...原创 2019-07-27 21:34:43 · 314 阅读 · 0 评论