【NLP】【Gensim】- 使用心得

前言

⭐️ 本文持续更新
⭐️ 本文只是用作在使用Gensim过程中的一些经验 (踩过的很多坑,记录下来以防止再踩)
⭐️ 关于Word2Vec详解部分,请参考这篇论文(非常适合小白,就是是英文版的):6. 论文:word2vec Parameter Learning Explained

1.Word2Vec部分

1.1.模型构建过程

⭐️ 第一步:构建输入语料,输入语料必须是个二维数组,形似,以下代码片段

sentence = [["I", "like", "eat", "apple"],["I", "love", "you", "forever"]]

⭐️ 第二步:输入语料训练模型,形如以下代码片段,其中的workers 必须在安装了cython运行才有效果,具体模型参数详解,可以参考:基于 Gensim 的 Word2Vec 实践

model = Word2Vec(sentences = sentence ,workers=8, window=5, vector_size=500)

⭐️ 第三步:模型保存与载入,这里有两种保存方法,一种保存全部数据,不可以查看,可以用来进行重训练,另外一种是保存为文本格式,可以查看,但是丢失了词汇树等部分信息,不能追加训练,形如以下代码片段

# 第一种:保存全部数据
model.save("./dir/xx.m")
# 第二种:保存为文本格式
model.save_word2vec_format('./dir/xx.txt', binary = Flase)
model.save_word2vec_format('./dir/xx.bin.gz', binary = True)
# 模型载入
gensim.models.Word2Vec.load("./dir/xx.m")
gensim.models.KeyedVectors.load_word2vec_format('./dir/xx.txt', binary = Flase)
gensim.models.KeyedVectors.load_word2vec_format('./dir/xx.bin.gz', binary = True)

⭐️ 第四步:模型评估,

1.2.线上训练

⭐️ 加载模型进行线上训练(也就是加载模型追加训练),在模型训练的时候,无法更新词表,只能在以前的词表上训练,训练形如以下代码,注意一定要写corpus_iterable = sentence 千万不要写成sentences= sentence否则会报错!!!

model = gensim.models.Word2Vec.load(model_save_path)
model.train(corpus_iterable = sentence ,total_examples=len(context), epochs=10)

⭐️ 如果要重建词表,要使用这一函数 model.build_vocab()注意,使用了这一函数后,原词表会被覆盖

model.build_vocab(corpus_iterable = context, update = True)

1.3.模型应用

  1. ⭐️ 获取词向量,这里一定要用model.wv["xx"],不要用model["xx"]
model.wv["password"]
  1. ⭐️ 获取最相似的词
model.wv.most_similar("username")
  1. ⭐️ 获取词表,这里千万不要用model.wv.vocab[key]已经被弃用!!!
model.wv.key_to_index

1.4.其他

  1. ⭐️ 模型在训练过程中生成的.npy文件是神经网络的权重参数,可以通过numpy加载查看其各层参数
import numpy as np
wDict = np.load("../model/word2vec_15M_500_W5.m.wv.vectors.npy", encoding= "bytes")
wDict_native = np.load("../model/word2vec_15M_500_W5.m.syn1neg.npy", encoding= "bytes")

2.参考资料

📖 1:基于 Gensim 的 Word2Vec 实践
📖 2:官网示例 Word2Vec Model
📖 3:机器学习:gensim之Word2Vec 详解
📖 4. 查看npy文件中存的是什么
📖 5. word2vector的原理,结构,训练过程
📖 6. 论文:word2vec Parameter Learning Explained

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 自然语言处理(Natural Language Processing,简称NLP)是计算机科学与人工智能领域的一个重要研究方向,目的是让计算机能够理解、处理和生成人类的自然语言。NLP-100例是一份经典的NLP问题集合,包含了各种与自然语言处理相关的问题和挑战。 这份NLP-100例涵盖了从基础的文本处理到更高级的自然语言理解和生成的问题。例如,其中包括了文本预处理、词频统计、语法分析、词性标注、实体识别、情感分析、机器翻译等任务。 NLP-100例的目的是帮助研究者和开发者更好地理解NLP领域的核心问题和技术,同时提供一些典型的案例和数据集供实践和研究使用。通过完成这些例题,可以锻炼自己在NLP领域的能力和技术,提高对自然语言的处理和理解能力。 此外,NLP-100例也为研究者提供了一个可以与其他人交流和探讨的平台。研究者可以使用相同的数据集和问题进行实验和评估,从而更好地了解NLP技术的优劣和进展。 总之,NLP-100例是一个对NLP进行实践和研究的重要资源。通过解决这些例题,可以深入理解自然语言处理的基础和技术,掌握各种NLP任务的方法和技巧。同时,它也是一个促进交流和合作的平台,为NLP研究者提供了一个共同的基础和语言。 ### 回答2: 自然语言处理(Natural Language Processing,简称NLP)是研究计算机与人类自然语言之间的交互的一门学科。NLP-100例指的是日本的一个NLP入门教程,包含了100个常见的NLP问题和对应的解答。 NLP-100例涵盖了从文本处理到语义理解等多个方面的问题。其中,一些例子包括:文本的分词、词性标注、句法分析、语义角色标注和文本分类等。 以分词为例,分词是将一段连续的文本分割成词语的过程。在NLP-100例中,可以通过使用Python中的分词工具NLTK(Natural Language Toolkit)来实现分词功能。 另外,对于文本的词性标注,NLP-100例提供了使用POS(Part-Of-Speech)标记对文本中的每个词进行词性标注的方法。可以使用NLTK提供的POS标注工具来实现。 此外,NLP-100例还包括了语义角色标注的问题,语义角色标注是为了确定句子中的谓语动词所承担的语义角色,如施事者、受事者、时间等。可以使用Stanford CoreNLP工具包来实现语义角色标注。 最后,NLP-100例还介绍了文本分类的问题,文本分类是将文本划分到预定义的类别中。可以使用机器学习算法,如朴素贝叶斯或支持向量机(SVM)等来进行文本分类。 通过学习NLP-100例,我们可以了解到自然语言处理的基本方法和技术,并且可以利用这些技术来解决相关的自然语言处理问题。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值