![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
自然语言处理
Jamie_Wu
沙坡村未来之光
展开
-
自然语言处理从小白到大白系列(6)说说中文分词那些事
文章目录一. 分词常用方法1.1 基于词表的方法最大匹配法全切分路径选择法1.2 基于统计模型的方法1. n元语法模型2. 隐马尔可夫模型(Hidden Markov Model ,HMM)3. 条件随机场模型(Conditional Random Fields,CRF)1.3 基于深度学习的方法二. 分词常用工具2.1 [jieba](https://github.com/fxsjy/jieba...原创 2019-10-24 11:15:04 · 555 阅读 · 0 评论 -
自然语言处理从小白到大白系列(5)多个角度彻底理解最大熵模型
文章目录1.最大熵模型初探1.1 模型引入1.2 特征函数2.最大熵模型和逻辑回归的瓜葛3.最大熵模型和条件随机场的绯闻4.最大熵模型和同母异父兄弟极大似然估计5.最大熵马尔科夫模型5.1 隐马尔科夫模型的局限:条件独立假设5.2 标注偏置问题 最大熵模型可能刚开始接触的同学都觉得这个模型还行吧,不算啥,一般般。不就是让熵最大嘛,我取个均匀分布熵不就最大了嘛。这个模型有啥好讲的,嘿,您可太小瞧...原创 2019-10-20 18:36:19 · 633 阅读 · 0 评论 -
自然语言处理从小白到大白系列(4)多角度理解条件随机场
文章目录1. 线性链CRF2. 特征函数如何理解3. CRF的三个问题——预测问题前向得分4. CRF的三个问题——概率计算5. CRF的三个问题——参数学习6. 条件随机场和隐马尔可夫模型,哪个好? 众所周知,条件随机场在NLP中做NER和词性标注等任务是一把好手,但是条件随机场一直是很多同学心中谜一样的存在:贝叶斯网络,隐马模型,马尔科夫网络,最大熵隐马尔可夫模型,这些概率图就是都是写什么...原创 2019-10-18 10:55:51 · 517 阅读 · 0 评论 -
自然语言处理从小白到大白系列(3)聊聊序列模型中的隐马模型
如标题一样,隐马尔可夫模型谜一样的推导和应用,一直是机器学习入门朋友们的一个拦路虎。就是那种,提起来大致知道:噢!隐马模型啊,就是那个转移来转移去的一个模型,要解决三个基本问题,哪三个来着?对了,还有那啥维特比算法,前向后向算法,好了我懂!可是聪明的你,真的弄懂了吗?本文就来捋一捋,这是何方神圣,究竟有什么用处??通过阅读本文,你将会掌握以下主要知识点:隐马模型的初步理解隐马模型的三个重要...原创 2019-10-12 23:14:37 · 493 阅读 · 0 评论 -
pytorch第6课:pytorch风格迁移与GAN网络
原创 2019-05-07 20:54:13 · 1253 阅读 · 0 评论 -
pytorch第7课:seq2seq与attention机制实战——动手做一个翻译系统
原创 2019-05-07 20:55:36 · 659 阅读 · 0 评论 -
pytorch第8课:问答系统,文本摘要,以及ELMO,bert的介绍
原创 2019-05-07 20:57:04 · 1930 阅读 · 0 评论 -
自然语言处理从小白到大白系列(1)Word Embedding之主题模型
一直想开启一个专题来整理一下NLP的相关内容,总算克服懒癌着手开始干了。如果同学有缘看到这篇,恭喜你,这是本系列(自然语言处理从小白到大白系列)的第一篇,后续会不断更新,欢迎关注!有些同学一提到Word Embedding,马上就想到的是word2vec,glove,fasttext,cBOW,skip-gram,然而却常常忽略最基本的文本嵌入方法,如本文提到的主题模型,包括pLSA,LDA,...原创 2019-10-07 15:23:27 · 530 阅读 · 0 评论 -
自然语言处理从小白到大白系列(2)word Embedding从one-hot到word2vec
我们知道,对于我们的计算机来说,没有办法像人一样理解自然语言,在人工智能领域,这还有很长一段路要走,就算要直接处理自然语言,都很困难。因此,人们想办法把自然语言用数字的方式表示,便于计算和分析,这就是为什么要做词嵌入:word embedding。本文将从以下的方面讲述word embedding:one-hot, word2vec, glove, fast-text.原创 2019-10-11 10:12:18 · 1313 阅读 · 0 评论 -
pytorch第5课:Torchvision的图片分类实战以及常见的卷积神经网络架构
原创 2019-05-07 20:52:58 · 834 阅读 · 0 评论 -
pytorch第4课:文本分类实战,手把手教你做一个电影情感分类项目
原创 2019-05-07 20:50:08 · 3513 阅读 · 0 评论 -
第一章绪论:自然语言处理的概念、难点、研究重点以及发展历程
原创 2018-12-14 10:15:58 · 3234 阅读 · 0 评论 -
看了这篇你还不懂隐马尔可夫模型,你就来打死我吧
如标题一样,隐马尔可夫模型谜一样的推导和应用,一直是机器学习入门朋友们的一个拦路虎。就是那种,提起来大致知道:噢!隐马模型啊,就是那个转移来转移去的一个模型,要解决三个基本问题,哪三个来着?对了,还有那啥维特比算法,前向后向算法,好了我懂!可是聪明的你,真的弄懂了吗?本文就来捋一捋,这是何方神圣,究竟有什么用处??去年学习张西宁老师的课,首次接触到隐马尔可夫模型这样一个概念,最近看了宗成庆老师...原创 2019-01-01 20:18:41 · 3472 阅读 · 1 评论 -
自然语言处理的bert, GPT, GPT-2, transformer, ELMo, attention机制都是些何方神圣???
2018年是NLP领域巨变的一年,这个好像我们都知道,但是究竟是哪里剧变了,哪里突破了?经常听大佬们若无其事地抛出一些高级的概念,你却插不上嘴,隐隐约约知道有这么个东西,刚要开口:噢!你说bert啊,我知道,就是一个预训练模型,然后,然后。。。然后就没有然后了,若是在面试场上,你三秒钟就结束了考官的提问,那尴尬的考官估计只能以你太快的理由拒绝给你发offer。好的,闲话少说,我们来总结一下这么...原创 2019-03-07 22:50:41 · 8199 阅读 · 1 评论 -
自然语言处理从小白到大白系列(1)Word Embedding之主题模型
有些同学一提到Word Embedding,马上就想到的是word2vec,glove,fasttext,cBOW,skip-gram,然而却常常忽略最基本的文本嵌入方法,如本文提到的主题模型,包括pLSA,LDA, 还有后面会提到的 MF(matrix factorization), NMF以及sparse coding等传统的方法。讲到主题模型,大家普遍觉得是LDA,但是其实前面还有一个模...原创 2019-03-22 10:27:07 · 685 阅读 · 0 评论 -
看了这篇你还不懂BERT,那你就过来打死我吧
目录1. Word Embedding. 11.1 基于共现矩阵的词向量... 11.2 基于语言模型的词向量... 22. RNN/LSTM/GRU.. 52.1 RNN.. 52.2 LSTM 通过门的机制来避免梯度消失... 62.3 GRU 把遗忘门和输入门合并成一个更新门... 63. seq2seq模型... 83.1 朴素的seq2seq模型...原创 2019-05-09 10:28:03 · 3951 阅读 · 5 评论 -
pytorch第1课,入门你要知道的几件事
原创 2019-05-07 20:44:32 · 274 阅读 · 0 评论 -
pytorch第2课:词向量的前世今生——离散表示到分布式
原创 2019-05-07 20:46:10 · 900 阅读 · 0 评论 -
pytorch第3课:深入理解语言模型及循环神经网络:从RNN到LSTM、GRU
原创 2019-05-07 20:48:15 · 304 阅读 · 0 评论