深度学习训练营之调用Gensim来训练Word2Vec模型

原文链接

环境介绍

  • 语言环境:Python3.9.12
  • 编译器:jupyter notebook
  • 深度学习环境:TensorFlow2

前置工作

下载Gensim库

pip install gensim

在这里插入图片描述

对于原始语料进行分词

import jieba
import jieba.analyse
    # 加入一些词(人名),使得jieba分词准确率更高
jieba.suggest_freq('沙瑞金', True)
jieba.suggest_freq('田国富', True)
jieba.suggest_freq('高育良', True)
jieba.suggest_freq('侯亮平', True)
jieba.suggest_freq('钟小艾', True)
jieba.suggest_freq('陈岩石', True)
jieba.suggest_freq('欧阳菁', True)
jieba.suggest_freq('易学习', True)
jieba.suggest_freq('王大路', True)
jieba.suggest_freq('蔡成功', True)
jieba.suggest_freq('孙连城', True)
jieba.suggest_freq('季昌明', True)
jieba.suggest_freq('丁义珍', True)
jieba.suggest_freq('郑西坡', True)
jieba.suggest_freq('赵东来', True)
jieba.suggest_freq('高小琴', True)
jieba.suggest_freq('赵瑞龙', True)
jieba.suggest_freq('林华华', True)
jieba.suggest_freq('陆亦可', True)
jieba.suggest_freq('刘新建', True)
jieba.suggest_freq('刘庆祝', True)
jieba.suggest_freq('赵德汉', True)

with open('in_the_name_of_people.txt') as f:
    result_cut=[]
    lines=f.readlines()
    for line in lines:
        result_cut.append(list(jieba.cut(line)))
f.close()

在这里插入图片描述

添加停用词

避免标点符号等内容作为训练样本当中的内容,从而降低模型出错的概率

#添加自定义的停用词
stopwords_list=[",","。","\n","\u3000"," ",":","!","?","..."]
#这里的停用词比如像!和?不是很理解,是否会影响语义分析的结果出现错误,因为像这样的问题应该会忽略语义的情感分析
#对于word2vec选择上下文,所以要尽可能省去标点符号
def remove_stopwords(ls):
    return [word for word in ls if word not in stopwords_list]
#在实际应用当中可以通过调参提高词的embedding效果
#embedding:离散数据转向连续型数据的过程
result_stop=[remove_stopwords(x)for x in result_cut if remove_stopwords(x)]
print(result_stop[50:54])
print(result_stop[100:103])

在这里插入图片描述

模型训练

模型介绍

Word2Vec其所表达的意思就是 Word to Vector ,也就是相当于通过一个句子当中的单词去构建向量,在选择一个关键词之后,在该关键词所在的句子的前后选择Window(设置的选取的单词的个数)个单词作为训练样本,通过Word2Vec捕获单词之间的相似性和类比关系

模型正式训练

进行Word2vec模型的训练

from gensim.models import Word2Vec

model=Word2Vec(result_stop,
               vector_size=100,#特征向量的维度
                window=5,#一个句子中当前单词与被预测单词之间的距离
                min_count=1,
                compute_loss=True)
#计算余弦相似度
print(model.wv.similarity('沙瑞金','季昌明'))
print(model.wv.similarity('易学习','季昌明'))

0.99825275
0.99925613

for e in model.wv.most_similar(positive=['沙瑞金'],topn=5):
    print(e[0],e[1])
    print(type(e))

赵立春 0.9996154308319092
<class ‘tuple’>
欧阳菁 0.9995353817939758
<class ‘tuple’>
这位 0.9995108246803284
<class ‘tuple’>
情况 0.9994970560073853
<class ‘tuple’>
觉得 0.9994819760322571
<class ‘tuple’>

odd_word=model.wv.doesnt_match(["苹果","香蕉","橘子","梨","猫"])
print(f"在这组词汇当中不匹配的词汇:{odd_word}") 

在这组词汇当中不匹配的词汇:猫

计算词频

word_frequency=model.wv.get_vecattr("沙瑞金","count")
print(f"沙瑞金:{word_frequency}")
print(type(model))

沙瑞金:353
<class ‘gensim.models.word2vec.Word2Vec’>

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值