自然语言处理
文章平均质量分 79
尚风悦yy
这个作者很懒,什么都没留下…
展开
-
服务器配置torch1.4.0虚拟环境
项目环境配置1、python 3.5———>用3.6以上版本2、jupyter notebook3、torch1.4.04、numpy 1.16.25、gensim 3.8.16、tqdm4.31.17、pickle8、json9、nltk第一步:创建虚拟环境conda create -n torch1.4 python=3.5第二步:进入该虚拟环境conda activate torch1.4第三步:安装能使用gpu加速的pytorch,先查看cuda版本nvid原创 2021-12-16 12:02:09 · 4744 阅读 · 0 评论 -
(2014)Glove:Global Vectors for Word Representation
基于全局信息的单词向量表示AbstractIntroduction三级目录Abstract1、目前词向量学习模型能够成功的使用算术计算(词向量的加、减运算)来捕捉词与词之间细微的语法和语义规律。2、但是这些规律背后的原理依旧是不清楚的,经过仔细的分析,我们发现了模型特性中这些规律在词向量中浮现。3、结果基于词提出了一种新的对数双线性回归模型,这种模型结合了文中两个主要模型组的优点:全局矩阵分解和局部上下文来学习词向量。4、我们的模型只在共现矩阵的非0位置训练以达到有效使用统计信息的目的,而不是在整原创 2021-12-15 16:28:43 · 853 阅读 · 0 评论 -
(2013 Distribute Representations of Words and Phrases and their Compositionality)词和短语的分布式表示和组成
Distribute Representations of Words and Phrases and their Compositionality摘要介绍模型介绍The Skip-gram(未完待续)摘要连续Skip-gram模型,用来学习高质量的分布式词向量表示,可以抓住精确的语法和语义词关系。在本篇论文中,我们提出既可以提高词向量质量又可以提高训练速度的方法。通过对高频词的二次采样,我们获得了重大意义上的速度提升,并且也学到了更多规则的单词表示。另外还描述了一种代替hierarchical so原创 2021-12-09 16:21:40 · 285 阅读 · 0 评论