使用Gensim计算LSI时两种语料库流的实现方式

我对自然语言处理实在不熟,这篇博客也就当是学习了。

最近需要将一个待分析对象(一个软件项目或者是一个源代码)表示为一个document,再从自然语言处理的角度计算它们的相似性。免不了要用到LSI这样的方法。网上介绍Gensim中LSI的实现的方法已经很多,也有很多教程指出:如果语料库特别大,那我们同时载入内存是不现实的,这时候就要用到语料库流的概念,其实也有些文章已经介绍了:https://blog.csdn.net/kl28978113/article/details/77881458https://blog.csdn.net/qq_30868235/article/details/80628719https://blog.csdn.net/zlbflying/article/details/49329339。但可惜的是,大家似乎都说得不太清楚,我简单总结了一个例子,帮助大家在上面那些文章的基础上理解两种语料库流的实现方法:

# -*- coding:utf-8 -*-

from gensim import corpora, models
import numpy as np

            
class MyCorpus(object):
    def __init__(self, in_file):
        self.in_file = in_file
    
    def __iter__(self):
        for line in open(self.in_file):
            yield dictionary.doc2bow(line.lower().split())


FILE_STRING="语料文件"
NUM_TOPICS=128


dictionary = corpora.Dictionary(line.lower().split() for line in open(FILE_STRING))
print dictionary
once_ids = [tokenid for tokenid, docfreq in dictionary.dfs.iteritems() if docfreq == 1]
dictionary.filter_tokens(once_ids)#去掉只出现一次的词
dictionary.compactify()
print dictionary#可以看到第二次print的时候dictionary精简了很多

corpus = [dictionary.doc2bow(line.lower().split()) for line in open(FILE_STRING)]#在这种情况下,语料库是一个矩阵,每一行对应一个document
print corpus[1]
corpus = MyCorpus(in_file=FILE_STRING)#在这种情况下语料库是一个对象,我们可以每次取出其一个向量
for index,vector in enumerate(corpus):
    if(index==1):
        print vector#可以看到,两种print的结果是相同的。

tfidf_model = models.TfidfModel(corpus)  
corpus_tfidf = tfidf_model[corpus]
lsi_model = models.LsiModel(corpus_tfidf,id2word=dictionary,num_topics=NUM_TOPICS)
corpus_lsi = lsi_model[corpus_tfidf]

 

### 回答1: LDA(Latent Dirichlet Allocation)是一种用于主题建模的概率图模型。Gensim是一个用于主题建模和自然语言处理的Python库,它提供了一个实现LDA模型的工具。 使用Gensim实现LDA,首先需要准备好文本语料库。然后,我们需要将语料库进行预处理,包括分词、去除停用词、词形还原等操作。接下来,我们使用Gensim语料库和字典工具来创建BOW(Bag of Words)表示法的文档向量。通过将每个文档表示为一个稀疏向量,其中词袋中的每个单词代表一个维度,可以将文本数据转换为数字形式。 在创建好文档向量后,我们使用Gensim的LDA模型类进行训练。该类提供了许多参数,如主题数量、迭代次数和随机种子等。通过调整这些参数,我们可以得到更准确的主题模型。 训练完成后,我们可以通过查看每个主题的关键词来了解模型的结果。Gensim提供了一个函数来获取每个主题的前n个最相关的词语。我们还可以通过将新文档传递给训练好的LDA模型,获取该文档的主题分布。这可以帮助我们理解文档所属的主题类别。 总之,使用Gensim实现LDA可以帮助我们从大量文本数据中抽取主题信息。它可以应用于文本分类、信息检索和推荐系统等领域。同Gensim还提供了一些其他的主题模型算法和工具,如LSI(Latent Semantic Indexing)和Word2Vec等,可以进一步扩展我们的文本分析和挖掘能力。 ### 回答2: LDA (Latent Dirichlet Allocation) 是一种用于主题建模的概率模型,是从文本集合中自动发现隐含主题的一种方法。Gensim 是一个用于处理文本数据的 Python 库,提供了 LDA 模型的实现使用 Gensim 进行 LDA 建模的过程分为以下几步: 1. 数据预处理:首先,需要将文本数据进行预处理,包括去除停用词、标点符号和数字,并进行词干化或词形变换等操作。这一步的目标是将文本数据转换为更容易处理的形式。 2. 构建词袋模型:将预处理后的文本数据转换为词袋模型,即将每个文本表示为一个向量,向量中的每个维度表示一个词语在该文本中出现的频率或权重。 3. 训练 LDA 模型:使用 Gensim 的 LdaModel 类训练一个 LDA 模型。需要指定词袋模型、主题数量和其他参数。可以通过调整参数来控制模型的性能和建模结果。 4. 分析主题结果:训练完成后,可以使用模型的方法来分析主题结果。例如,可以使用模型的 show_topics() 方法来查看每个主题的关键词。 5. 应用模型预测:训练好的 LDA 模型可以应用于新的文本数据,预测其所属的主题。可以使用模型的 get_document_topics() 方法来获取文本的主题分布。 Gensim 提供了一种简单、高效的方式实现 LDA 主题建模,并且还支持通过调整参数来优化建模结果。因此,使用 Gensim 进行 LDA 实例化可以帮助我们更好地理解和分析文本数据,发现其中的潜在主题。这对于文本挖掘、信息检索和自然语言处理等领域具有重要的应用价值。 ### 回答3: LDA(Latent Dirichlet Allocation)是一种常用的主题模型算法,旨在通过分析文档集合中的词汇分布,发现文档背后的潜在主题。Gensim是一个开源的Python库,提供了简单而高效的方式实现LDA模型。 使用Gensim实现LDA模型的步骤如下: 1. 准备数据:首先,需要准备一组文档集合作为输入数据。文档可以是字符串的列表,每个字符串代表一个文档。 2. 预处理文本:接下来,需要对文本进行预处理,包括去除停用词、词干提取等。Gensim提供了一些工具函数来帮助进行预处理。 3. 构建词袋模型:使用Gensim的`corpora.Dictionary`类可以将文本转换为词袋模型。词袋模型将每个词映射到一个唯一的整数ID。 4. 构建语料库使用词袋模型,可以将文本转换为数字化的表示形式,形成一个语料库语料库可以由Gensim的`corpora.MmCorpus`类表示。 5. 训练LDA模型:使用Gensim的`models.LdaModel`类可以训练LDA模型。在训练模型之前,需要设置一些超参数,比如主题数、迭代次数等。可以通过调用`lda_model = models.LdaModel(corpus, id2word=dictionary, num_topics=5, passes=10)`来创建一个LDA模型对象,并指定数据、词袋模型和主题数等。 6. 解释结果:训练完成后,可以使用`lda_model.show_topics()`函数来查看每个主题的关键词以及其在整个语料中的权重。可以进一步通过Gensim的可视化工具,如`pyLDAvis`来展示主题模型的结果,帮助解释数据。 总之,Gensim提供了简单而强大的工具来实现LDA模型。通过准备数据、预处理文本、构建词袋模型、构建语料库、训练LDA模型以及解释结果,可以使用Gensim轻松实现LDA主题模型分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值