python 语义网络_第十个python程序——语义网络分析或社会网络分析

c2608db4360ef25d63bd25bacbe60aea.gif

好久没有更新了,感谢还在关注的朋友。这次为大家带来利用python进行语义网络分析或者社会网络分析,原代码来自于CSDN的Elegantmadman,但是我在运行这个代码的时候发现一点小问题,就是在过滤停用词的时候只能去除单个字符,比如“只”,而不能去除“一只”,所以我在这里做了一点修改,生成的效果图如下:

2833b56bb3e60d82a07e8d56cceb7495.png

下面呈现代码,需要的朋友可以复制代码,修改需要分析的语料库路径和自己的停用词表文件路径就可以了,对图形的进一步定义可以自行根据需要修改代 码 。
import re # 正则表达式库import jieba   #分词import collections # 词频统计库import numpy as npimport pandas as pdimport networkx as nx  #复杂网络分析库import matplotlib.pyplot as pltnum=40G=nx.Graph()plt.figure(figsize=(20,14))plt.rcParams['axes.unicode_minus'] = False    # 用来正常显示负号plt.rcParams['font.sans-serif'] = ['SimHei']   # 用来正常显示中文标签# 读取文件----------------------------fn = open('network.txt',encoding='utf-8') # 打开文件【输入需要分析的文本文件】string_data = fn.read() # 读出整个文件fn.close() # 关闭文件# 文本预处理---------------------------pattern = re.compile(u'\t|\.|-|:|;|\)|\(|\?|,|0|1|7|"') # 定义正则表达式匹配模式string_data = re.sub(pattern, '', string_data)    # 将符合模式的字符去除# 文本分词-----------------------------jieba.add_word("讲话精神")#【需要添加的特殊词语】seg_list_exact = jieba.cut(string_data)object_list = []with open('meaningless.txt','r',encoding='utf-8') as file2:    remove_words=" ".join(file2.readlines()) ####【设置停用词】print("*---载入停用词表成功---*")#print(remove_words)for word in seg_list_exact: # 循环读出每个分词    if word not in remove_words: # 如果不在去除词库中        object_list.append(word) # 分词追加到列表# 词频统计-------------------------------------------------------print("*---下面进行词频统计---*")word_counts = collections.Counter(object_list) # 对分词做词频统计word_counts_top = word_counts.most_common(num) # 获取最高频的词word = pd.DataFrame(word_counts_top, columns=['关键词','次数'])#print(word)word_T = pd.DataFrame(word.values.T,columns=word.iloc[:,0])net = pd.DataFrame(np.mat(np.zeros((num,num))),columns=word.iloc[:,0])k = 0#构建语义关联矩阵--------------------------------------------------------print("*---构建语义关联矩阵---*")for i in range(len(string_data)):    if string_data[i] == '\n':  #根据换行符读取一段文字        seg_list_exact = jieba.cut(string_data[k:i], cut_all = False) # 精确模式分词        object_list2 = []        for words in seg_list_exact: # 循环读出每个分词            if words not in remove_words: # 如果不在去除词库中                object_list2.append(words) # 分词追加到列表word_counts2 = collections.Counter(object_list2)word_counts_top2 = word_counts2.most_common(num) # 获取该段最高频的词word2 = pd.DataFrame(word_counts_top2)word2_T = pd.DataFrame(word2.values.T,columns=word2.iloc[:,0])relation = list(0 for x in range(num))print("*---查看该段最高频的词是否在总的最高频的词列表中---*")for j in range(num):    for p in range(len(word2)):        if word.iloc[j,0] == word2.iloc[p,0]:            relation[j] = 1            break        #对于同段落内出现的最高频词,根据其出现次数加到语义关联矩阵的相应位置for j in range(num):    if relation[j] == 1:        for q in range(num):            if relation[q] == 1:                net.iloc[j, q] = net.iloc[j, q] + word2_T.loc[1, word_T.iloc[0, q]]    k = i + 1            # 处理最后一段内容,完成语义关联矩阵的构建print("*---准备绘图---*")n = len(word)        # 边的起点,终点,权重for i in range(n):    for j in range(i, n):        G.add_weighted_edges_from([(word.iloc[i, 0], word.iloc[j, 0], net.iloc[i, j])])print(G.edges())nx.draw_networkx(G,                    pos=nx.spring_layout(G),                    # 根据权重的大小,设置线的粗细                    width=[float(v['weight'] / 300) for (r, c, v) in G.edges(data=True)],                    edge_color='red',                    # 根据词出现的次数,设置点的大小                    node_size=[float(net.iloc[i, i] * 6) for i in np.arange(20)],node_color='white'                    )plt.axis('off')#plt.title('助攻表现(常规赛)',fontstyle='oblique')#plt.savefig('总的.png')plt.show()
这份代码其实还可以做更多的事情。如果我们将停用词表作为自定义字典,就是在语料库中我们只关注特定的对象,比如出现的人名、省份、城市等等,这样可以通过循环和判断将分词后的语料库不属于我们自定义字典里面内容的部分过滤掉,就可以保持我们关注的部分。

5c11509f68925e5e2b30787ff3089272.png

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值