Python文本分析可视化整体思路:
一.导入待可视化文本文件,分词并统计词频。
二.筛选出高频词。
三.根据词频绘制形状词云图。
import os
print(os.getcwd())
os.chdir("e:\\")
print(os.getcwd())
首先通过“os.getcwd()”确认当前工作的目录与待分析的文本文件位置是否在同一目录下,
并利用“os.chdir()”改变位置,保证操作系统能成功找到文本文件。
import jieba#导入jieba库处理中文文本
with open("BNYJ.txt",'r',encoding='utf-8')as f:
renmin=f.read()#打开文本
seg_list=jieba.cut(renmin,cut_all=False)#以精准模式处理文本的分词
#print('【精准模式】:'+'/'.join(seg_list))
jieba.load_userdict('BLC.txt')#添加保留词,进行二次分词
tf={}#建立空字典,以键值对的形式存放词频统计结果
for seg in seg_list:#遍历分词结果列表
if seg in tf:
tf[seg]+=1
else:
tf[seg]=1
ci=list(tf.keys())
with op