word2vec
Thinking_boy1992
这个作者很懒,什么都没留下…
展开
-
Efficient Estimation of Word Representations in Vector Space
https://arxiv.org/pdf/1301.3781.pdf“>论文翻译 摘要: 我们提出了两个新的模型框架用来计算从非常大的数据集中单词的连续向量表示; 表示的质量在一个单词相似度任务中进行测试;结果与之前效果最好的技术进行比较,这些技术基于不同类型的神经网络;我们使用更低的计算量在准确率上有很大的提高,例如,它从1.6billion单词量的数据集中花费不到一天时间训练得到高质量的翻译 2016-12-01 08:57:08 · 7709 阅读 · 1 评论 -
word2vec教程
本文翻译自本文关于在gensim中如何使用word2vec 准备输入(Preparing the Input) 从一开始,gensim的word2vec把语句序列作为它的输入(即文本);每一个语句就是一个单词序列;# import modules & set up loggingimport gensim, logginglogging.basicConfig(format='原创 2016-12-04 09:28:35 · 3157 阅读 · 0 评论 -
Distributed Representations of Words and Phrasesand their Compositionality
https://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf“>翻译论文 最近提出的连续Skip-gram模型是一个有效的方法,用来学习高质量的分布式向量表示,它能够捕获大量的准确的单词间语义和句法关系。在这篇文章中,我们呈现一些扩原创 2016-12-04 09:29:02 · 529 阅读 · 0 评论 -
Distributed Representations of Words and Phrasesand their Compositionality
https://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf“>翻译论文 最近提出的连续Skip-gram模型是一个有效的方法,用来学习高质量的分布式向量表示,它能够捕获大量的准确的单词间语义和句法关系。在这篇文章中,我们呈现一些扩原创 2016-12-04 09:29:31 · 1995 阅读 · 0 评论 -
word2vec API
本文翻译自class gensim.models.word2vec.Word2Vec(sentences=None, size=100, alpha=0.025, window=5, min_count=5, max_vocab_size=None, sample=0.001, seed=1, workers=3, min_alpha=0.0001, sg=0, hs=0, negativ原创 2016-12-04 09:30:18 · 2222 阅读 · 0 评论 -
word2vec
本文翻译自 本文通过word2vec的“skip-gram and CBOW模型进行深度学习,使用hierarchical softmax 或negative sampling; 训练算法最初是从C包中移植出来,https://code.google.com/archive/p/word2vec/,并且拓展了一些功能; 有一个关于gensim word2vec 的博客教程,使用GoogleN原创 2016-11-24 09:19:18 · 951 阅读 · 0 评论