### 1 保存一般模型
model.save('训练w2v模型相关/zhihu_w2v.model')
model_1 = word2vec.Word2Vec.load('训练w2v模型相关/zhihu_w2v.model')
print("模型1:", model_1)
## 第二种方法 以保存词向量的方式保存模型 二进制
model.wv.save_word2vec_format('训练w2v模型相关/zhihu_binary.bin', binary=True)
# 通过加载词向量加载模型模型
model = gensim.models.KeyedVectors.load_word2vec_format('训练w2v模型相关/zhihu_binary.bin', binary=True)
print("\n模型2:", model)
print("两个词的相似度为:", model.similarity("热火", "湖人"))
print("两个词的相似度为:", model.similarity("热火", "北京"))
# 计算某个词的相关词列表
top_n = model.wv.most_similar("湖人", topn=3) # 最相关的几个词
print("湖人top_n格式:", top_n)
name_list = ["热火", "湖人", "凯尔特人", "北京"]
print("当中最不相关的词:", model_2.doesnt_match(name_list))
# 第三种方式 保存词向量 与第二种方法相同 只是非二进制文件
model.wv.save_word2vec_format('33.txt', binary=False)
# 加载模型
#model_3 = gensim.models.KeyedVectors.load_word2vec_format('33.txt', binary=False)
#print("\n模型3:", model_3)
print("两个词的相似度为:", model_3.similarity("热火", "湖人"))
print("两个词的相似度为:", model_3.similarity("热火", "北京"))
#
# 计算某个词的相关词列表
top_n = model_3.wv.most_similar("科比", topn=3) # 最相关的几个词
print("top_n格式:", top_n)
name_list = ["热火", "湖人", "凯尔特人", "北京"]
print("当中最不相关的词:", model_3.doesnt_match(name_list))
Gensim中word2vec的三种保存模型的方式
于 2023-08-18 09:57:23 首次发布