NLP
Xtyscut
这个作者很懒,什么都没留下…
展开
-
jieba分词原理
关于jieba分词的原理,在平时做文本方面的算法时没有仔细研究过,昨晚在网上看了一篇博客,写的很全面很详细,其中有些深入的部分还并没有完全看懂。 原文作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007欢迎转载,也请保留这段声明。谢谢! https://www.cnblogs.com/zhbzz2007/p/6076246.html jieba分...转载 2019-03-20 11:11:09 · 16881 阅读 · 0 评论 -
word2vec原理
word2vec word2vec是一个计算word vector的开源工具。当我们在说word2vec算法或模型的时候,其实指的是其背后用于计算word vector的CBoW模型和Skip-gram模型。 2013年,Google团队发表了word2vec工具。word2vec工具主要包含两个语言模型:跳字模型(skip-gram)和连续词袋模型(continuous bag of words...原创 2019-03-17 13:42:19 · 392 阅读 · 0 评论 -
词嵌入word embedding详解
转载自https://www.cnblogs.com/wkang/p/9611257.html 词嵌入的那些事儿(一) 1. 词向量介绍 在讨论词嵌入之前,先要理解词向量的表达形式,注意,这里的词向量不是指Word2Vec。关于词向量的表达,现阶段采用的主要有One hot representation和Distributed representa...转载 2019-04-11 10:27:54 · 2105 阅读 · 0 评论 -
带权采样——word2vec负采样中的原理
遇到了带权采样的问题,一搜发现其实就是Word2vec中负采样所用到的方法,平时论文看的还是不够仔细啊。。 原文地址http://www.imooc.com/article/41635 Negative Sampling 在负采样中,对于给定的词w,如何生成它的负采样集合NEG(w)呢?已知一个词w,它的上下文是context(w),那么词w...转载 2019-04-13 22:23:32 · 2967 阅读 · 0 评论