生成中文词向量和句向量的Word2Vec和Doc2Vec实现

介绍

\qquad 本文主要介绍如何使用Python中的spacy、jieba、gensim等库,通过使用Word2Vec和Doc2Vec模型生成中文词向量和句向量。

\qquad 其中,spacy是一个用于自然语言处理的库,支持多语言,其中包括中文。jieba是一个中文分词库,可以将中文文本分词。gensim是一个开源的Python库,用于处理文本数据,其中包括生成词向量和句向量的Word2Vec和Doc2Vec模型。原始数据展示如下:请添加图片描述

代码实现

\qquad 首先,需要导入相关库和模型:

import os
import spacy 
import jieba
from tkinter import _flatten
from gensim.models import Word2Vec
from gensim.models.doc2vec import Doc2Vec, TaggedDocument
import numpy as np

\qquad 然后,加载中文模型:

nlp = spacy.load("zh_core_web_sm")

\qquad 接着,实现中文分词和去除停用词的功能:

def stopwords(data):
    words = [];lst = [];lst2 = []
    for i in data:
        doc = nlp(i)
        lst.append(doc) 
        
    for i in range(len(data)):
        lst3 = []
        for j in lst[i]:
            lst3.append(j.text)
        lst2.append(lst3)
    
    for i in range(len(data)):   
        texts = []      
        for w in lst2[i]:
            a = nlp.vocab[w] #转换格式
            if a.is_stop == False:
                texts.append(a.text)
        words.append(texts)
        f1.write(' '.join(texts))
    return words

\qquad 其中,data为要分词的文本数据,首先将其加载到spacy中,然后用jieba进行分词,去掉停用词后返回分词结果。代码实现结果如下:

请添加图片描述

\qquad 接着,实现创建词库的功能:

def lexicon(stopw):
    vocab = {}
    words = list(_flatten(stopw))
    for word in words:
        if word not in vocab:
            vocab[word] = len(vocab)
    return vocab

\qquad 其中,stopw为分词去除停用词后的文本数据,遍历分词结果,创建一个词库,并返回词库。

\qquad 接下来,训练Word2Vec模型:

# 训练word2vec模型
model = Word2Vec(stopw, vector_size=100, window=5, min_count=5, workers=4)

# 保存词向量
with open('word_word2vec.txt', 'w', encoding='utf-8') as f:
    for word in model.wv.key_to_index:
        vector = ' '.join(map(str, model.wv[word]))
        f.write(f'{word} {vector}\n')

\qquad 其中,stopw为分词去除停用词后的文本数据,设置词向量的维度为100,窗口大小为5,最小词频为5,训练workers为4。将训练好的词向量保存到名为“word_word2vec.txt”的文本文件中,每一行为一个词向量,以词汇及其对应的100维向量表示。接着,利用分词后的文本数据训练Doc2Vec模型,其中每个文档的标签用其在文本数据中的索引表示。同样地,设置向量维度为100,窗口大小为5,最小词频为5,训练workers为4。将训练好的句向量保存到名为“doc_vectors.txt”的文本文件中,每一行为一个句向量,以文档索引及其对应的100维向量表示。这样,我们便成功地使用Word2Vec和Doc2Vec模型生成了词向量和句向量。

结果展示

请添加图片描述
请添加图片描述

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在 Keras 中实现 word2vec 可以使用 Embedding 层。Embedding 层可以将离散的符号映射为连续的向量,其中每个符号对应一个向量。在 word2vec 中,这个符号就是单词,而向量就是单词的词向量。你可以训练一个从输入单词到输出词向量的模型,或者加载预训练的词向量权重。 实现 doc2vec 也可以使用 Embedding 层,但这次符号是文档,向量是文档向量。你可以训练一个从输入文档到输出文档向量的模型,或者加载预训练的文档向量权重。 为了更好地实现 doc2vec,你可能需要使用其他层,比如 LSTM 层或者 GRU 层,来处理变长的文档序列。你也可以考虑使用不同的损失函数和优化器,来更好地拟合文档向量。 ### 回答2: Keras是一个流行的深度学习框架,提供了方便快捷的工具来构建和训练神经网络模型。在Keras中实现word2vecdoc2vec模型可以通过嵌入层以及序列化模型来实现Word2Vec是一种使用神经网络进行单词的嵌入表示的模型。在Keras中,可以使用Embedding层来实现简单的word2vec模型。Embedding层将单词映射为密集向量,并将其作为输入传递给下一个层进行训练。我们可以使用Keras的Sequential模型来定义并训练这个模型。首先,我们需要定义模型的结构,其中包含Embedding层和一个输出层,例如全连接层。然后,我们可以使用模型编译方法来配置模型的优化器、损失函数以及性能指标。最后,我们可以使用模型的fit方法将训练数据集拟合到模型中。 Doc2Vec是一种扩展的word2vec模型,用于将整个文档映射到向量空间。在Keras中实现doc2vec可以采用类似的方法。我们可以使用一个包含两个或更多输入的模型,其中一个输入用于表示整个文档,另一个输入用于表示每个单词。我们可以使用Embedding层分别为单词和文档建立嵌入层,并将它们与合适的层(如全连接层)连接起来。这样,我们可以通过训练这个模型,使得单词和文档在向量空间中的表示能够根据它们的语义关系进行调整。 总之,在机器学习领域,Keras是一个强大的工具,可以方便地实现word2vecdoc2vec模型。通过使用Keras的嵌入层和序列模型,我们可以构建并训练这些模型,从而得到单词和文档在向量空间中的有意义的表示。 ### 回答3: Keras是一个高级的神经网络库,可以用于实现文本处理相关的任务,其中包括word2vecdoc2vecword2vec是用于将词语转换为向量表示的一种技术。在Keras中实现word2vec可以通过构建一个两层的神经网络来完成。首先,将词语表示为one-hot的编码形式,然后将其输入到神经网络中。神经网络的第一层是一个隐藏层,用于学习词向量的表示,隐藏层的节点数即为词向量的维度。接下来的一层是输出层,其节点数与词汇表的大小相同。通过训练这个神经网络,可以学习到每个词语的词向量表示。 doc2vec是对整个文档进行向量表示的一种技术。在Keras中实现doc2vec可以借助于word2vec的思想,将文档中的每个词语表示为词向量,并对这些词向量进行加权平均,得到整个文档的向量表示。这个加权平均可以通过简单的平均或者根据词语重要性进行加权平均来实现。然后,可以将得到的文档向量作为输入,在Keras中构建一个神经网络,进行训练和预测。 需要注意的是,在实现word2vecdoc2vec时,Keras提供了丰富的层和优化器,可以根据具体任务的需求进行选择和配置。同时,也可以使用Keras提供的预训练模型,例如基于GloVe或FastText的词向量模型,来进行更高效的文本表示学习。在实际应用中,还需要考虑文本数据的预处理、语料库的构建等问题,以及合适的模型评估和调参策略。这些都是进行word2vecdoc2vec实现时需要注意的方面。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值