在线词云生成工具,支持自定义颜色、背景、字体、旋转、词频、形状等。
导入包:
##############中文分词&过滤词汇&词频统计############
from os import path
from PIL import Image
import numpy as np
import matplotlib.pyplot as plt
import jieba
from wordcloud import WordCloud, STOPWORDS
#import re # 正则表达式库
#import collections # 词频统计库
统计词频并生成图云:
###当前文件路径
d = path.dirname('__file__')
# 读进文本内容变为file. txt保存的时候记得保存utf-8格式
file = open(path.join(d,"licee.txt"),encoding='utf-8').read()
##进行分词
#把不想要的词汇放进stop_words列表【】
stop_words = ['游戏','东西','自己','多一些','时候','这个','一些','不要','一个','一下','还有','建议','可以','你们','现在','越来越','已经','应该','还是','目前','希望','知道','网易','大神','没有','什么','真的','暂时','暂无','比如','觉得','不是','有些','就是','阴阳师','但是','呢么','我们','或者','其他','有时候','有点','如果','只有',]
#将整个file文本切割成词汇
cut_words =jieba.cut(file)
#将file中的排除掉stop_words的词汇汇入words
words = [w for w in cut_words if w not in stop_words]
#生成无stop_words的词汇列表text
text = " ".join(words)
#打开词云要模仿的图形图片【yun.png】为alice_mask;png效果比较好,jpg也可以
alice_mask = np.array(Image.open(path.join(d,"dashen_logo.png")))
stopwords = set(STOPWORDS)
stopwords.add("said")
wc = WordCloud(
#设置字体,不指定就会出现乱码,这个字体文件需要结合系统,以下字体是windows的
font_path=r'C:\Windows\Fonts\STZHONGS.TTF',
background_color="white",
max_words=20,
mask=alice_mask,
stopwords=stopwords)
# generate word cloud
wc.generate(text)
# store to file
wc.to_file(path.join(d, "dashen_logo.jpg"))
####### 词频统计【需要的时候去掉这一段的一个注释符号即可】########
#word_counts = collections.Counter(words) # 对分词做词频统计
#word_counts_top = word_counts.most_common(1000) # 获取前10最高频的词
#print (word_counts_top) # 输出检查
# show
plt.imshow(wc, interpolation='bilinear')
plt.axis("off")
plt.figure()
plt.imshow(alice_mask, cmap=plt.cm.gray, interpolation='bilinear')
plt.axis("off")
plt.show()