【python实现基于深度学习的文本情感分类(3)】——word2vec词向量训练

用到的模块:gensim, logging, os
原料:f.txt_cut.txt文件

word2vec代码

#encoding=utf-8
#定义模型训练函数
def model_train(train_file_name, save_model_file):  # model_file_name为训练语料的路径,save_model为保存模型名
    from gensim.models import word2vec
    import gensim
    import logging
    # 模型训练,生成词向量
    logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.INFO)
    sentences = word2vec.Text8Corpus(train_file_name)  # 加载语料
    model = gensim.models.Word2Vec(sentences, size=200)  # 训练skip-gram模型; 默认window=5
    model.save(save_model_file)
    model.wv.save_word2vec_format(save_model_name + ".bin", binary=True)   # 以二进制类型保存模型以便重用
    
from gensim.models import word2vec
import os
import gensim

cut_file = 'f.txt_cut.txt'
save_model_name = 'f.model'
if not os.path.exists(save_model_name):     # 判断文件是否存在
    model_train(cut_file, save_model_name)
else:
    print('此训练模型已经存在,不用再次训练')

还可以加载已训练好的词向量模型查看训练结果。

# 加载已训练好的模型
model_1 = word2vec.Word2Vec.load(save_model_name)
# 计算两个词的相似度/相关程度
y1 = model_1.wv.similarity("董明珠", "手游")
print(u"董明珠和手游的相似度为:", y1)
print("-------------------------------\n")

# 计算某个词的相关词列表
y2 = model_1.wv.most_similar("中国", topn=10)  # 10个最相关的
print(model_1.wv["中国"])
print(u"和中国最相关的词有:\n")
for item in y2:
    print(item[0], item[1])
print("-------------------------------\n")

输出结果为:
在这里插入图片描述

感觉还不错。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值