python-中文文本词共现矩阵代码

python-中文文本词共现矩阵代码

(初学,仅做记录用)
参考链接https://www.cnblogs.com/jiangyiming/p/16102307.html

代码如下

import jieba
import numpy as np
import pandas as pd

text = ['有毛病吗?七月三号发五月份的事?制造恐慌?举报了', '制造恐慌,已举报'] 

# 处理text文本数据

data_array = []  # 每篇文章关键词的二维数组;[['词1',...],['词2',....]]
word_list = []  # 存储文本中的所有词,[词1,词2,....]
for sentence in text:
    words = " ".join(jieba.cut(sentence))   # 返回 “词(空格) 词(空格)词”形式
    words = words.split(' ')   # 返回['词1','词2',..]形式
    data_array.append(words)
    word_list.extend(words)

word_to_id = {}
id_to_word = {}
for word in word_list:    
    if word not in word_to_id:
        new_id = len(word_to_id)  # 赋予每个词索引
        word_to_id[word] = new_id
        id_to_word[new_id]=word
corpus = np.array([word_to_id[w] for w in word_list])  # 所有词的词典
print(data_array)
print(word_list)
print(corpus)
print(word_to_id)

# 将data_array中的单词,用词id表示
for i in range(len(data_array)):
    for j in range(len(data_array[i])):
        if data_array[i][j] in word_to_id.keys():
            data_array[i][j] = word_to_id[data_array[i][j]]
print(data_array)

# 构建词共现矩阵
vocab_size = len(word_to_id)  # vocab_size 文本中有多少唯一的词
co_matrix = np.zeros((vocab_size, vocab_size), dtype=np.int32)   
window_size = 1   # 共现的窗口
for p_corpus in data_array:  # 逐个去计算每个句子中的词共现
    for idx,word_id in enumerate(p_corpus):
        for i in range(1,window_size+1):
            left_idx = idx - i
            right_idx = idx + i
            
            if left_idx >=0:
                left_word_id = p_corpus[left_idx]
                co_matrix[word_id, left_word_id] += 1
            if right_idx < len(p_corpus):
                right_word_id = p_corpus[right_idx]
                co_matrix[word_id, right_word_id] += 1
print(co_matrix)

结果:
在这里插入图片描述在这里插入图片描述

  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
高频词共现矩阵是指将一篇文本中出现频率较高的词语进行统计,并计算这些词语之间出现的共现次数,得到一个共现矩阵。这个共现矩阵可以作为文本的特征表示,用于文本分类、聚类等应用。 以下是一个使用Python生成高频词共现矩阵代码示例: 1. 首先导入必要的库: ``` import numpy as np import pandas as pd from nltk.tokenize import word_tokenize from nltk.corpus import stopwords ``` 2. 定义生成共现矩阵的函数: ``` def cooc_matrix(text, num_words=1000, window_size=5): # 分词 tokens = word_tokenize(text.lower()) # 去掉停用词 stop_words = set(stopwords.words('english')) tokens = [token for token in tokens if token not in stop_words] # 统计词语频率 word_freq = pd.Series(tokens).value_counts()[:num_words] # 取出频率前num_words的词语 words = word_freq.index.tolist() # 初始化共现矩阵 cooc = np.zeros((num_words, num_words)) # 遍历每个词语 for i, word in enumerate(words): # 遍历当前词语周围的词语 for j in range(i - window_size, i + window_size): # 如果词语在共现窗口内并且不是当前词语本身 if j >= 0 and j < len(words) and words[j] != word: # 更新共现矩阵 cooc[i, j] = cooc[j, i] = tokens.count(word + ' ' + words[j]) return cooc, words ``` 3. 调用函数生成共现矩阵并进行演示: ``` # 读入文本 text = open('sample.txt').read() # 生成共现矩阵 cooc, words = cooc_matrix(text) # 打印共现矩阵和词语列表 print(cooc) print(words) ``` 以上代码可以实现文本的高频词共现矩阵的生成,可以根据不同的需求调整参数来适配不同的文本

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值