5-21 利用word2vec和kmeans对词语进行聚类处理

本文介绍了如何利用word2vec对词语进行向量化处理,并结合kmeans进行聚类。注意到word2vec可以接受单个词或短句,但通常去除停用词后效果更好。在实践中,直接将词列表传入向量化操作可能会导致错误,需要进一步学习和改进。
摘要由CSDN通过智能技术生成

1、 词语截图如下
在这里插入图片描述

二. 需注意的是:

  1. word2vec 向量化的内容,可以将单个词的文见内容传入,也可以存在短句,但是向量化过程中都会将其拆分为单个单词并且向量话

下图为:存在短句,但是没有去stopwords
在这里插入图片描述
下图为分词且去除stopwords
在这里插入图片描述

一般而言 ,去除停止词后效果更佳

3 代码如下:

注:本文参考 --原文链接:https://blog.csdn.net/weixin_45314989/article/details/104390725
真心感谢 (:)

1. 导入所需模块
import sys
import gensim
import numpy as np
import pandas as pd
from gensim.models.word2vec import Word2Vec
from sklearn.cluster import KMeans
from gensim.models.word2vec import LineSentence

Word2vec 自带的预训练集有三个,我采用LineSentence 


2. 内容的读取和处理 ,因为Nltk的模块使用不熟练,所以采用for循环遍历拆分单词和停止词去除


path="C:/Users/Administrator/Desktop/自然语言/屏蔽词.xlsx"
data=pd.read_excel(path)

print('开始写入txt文件...')
data.to_csv('file2.txt', header=None, sep=',', index=False)
print('文件写入成功!')


循环遍历拆分和去除
name=[]
j=1
data = open("file2.txt", 'r', encoding='utf-8')
for line in data.readlines():
    line = line.replace('\n', '')
    print(line)
    print(j)
    j+=1
    if len(line)>1:
        s=line.split(" ")
        for i in s:
            if i not in name:
                name.append(i)
    else:
        if line not in name:
            name.append(line)
 
path1="C:/Users/Administrator/Desktop/自然语言/链接词.xlsx"
data1=pd.read_excel(path1)
word_list=data1["d"
  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Word2Vec是一种用于生成词向量的算法,它可以将单词映射到一个高维空间中的向量表示。这些向量可以捕捉到单词之间的语义和语法关系。在引用\[2\]中提到的例子中,Word2Vec生成了一个词典文件和一个向量文件。词典文件记录了出现过的词汇以及它们的出现次数,而向量文件则包含了每个词汇的向量表示。 K-means聚类是一种常用的无监督学习算法,它可以将数据点划分为不同的簇。在使用K-means聚类时,我们可以将Word2Vec生成的词向量作为输入数据,然后将这些向量划分为不同的簇。这样可以帮助我们发现具有相似语义的单词。 在引用\[3\]中的代码示例中,wordsCluster函数接受一个文本路径和一个词向量大小作为参数。它首先读取文本文件中的内容,并将每个单词存储在一个列表中。然后,它使用Word2Vec算法将这些单词向量化,并将词向量保存在一个文本文件中。最后,它调用K-means聚类算法将词向量划分为不同的簇。 综上所述,Word2Vec和K-means聚类可以结合使用,通过将单词向量化并进行聚类,来发现具有相似语义的单词。 #### 引用[.reference_title] - *1* [利用word2vec实现关键词聚类](https://blog.csdn.net/orangefly0214/article/details/90518229)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [【数据挖掘实战】——使用 word2vec 和 k-mean 聚类寻找相似城市](https://blog.csdn.net/lxwssjszsdnr_/article/details/127756337)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [5-21 利用word2veckmeans词语进行聚类处理](https://blog.csdn.net/weixin_46400833/article/details/117110246)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值