import wordcloud # 词云
from wordcloud import WordCloud,STOPWORDS
import matplotlib # 数据视图
from matplotlib import pyplot as plt
import numpy as np # 科学计算
from PIL import Image # 图片处理
import jieba # 分词
# 读取文件
pythonworkInfo = open('pythonworkinfo.txt', 'r', encoding='utf-8', errors='ignore').read()
print(pythonworkInfo)
cutPythonInfo = jieba.cut(pythonworkInfo, cut_all=True) # 切割
myword = " ".join(cutPythonInfo)
bgcolor = np.array(Image.open('peiqi.jpg')) # RBG格式
print(bgcolor)
mywordCloud = WordCloud(font_path='simkai.ttf', # 字体路径
width=400, height=200,
mask=bgcolor, # 字体颜色
scale=1, # 缩放
max_words=200, # 词量
min_font_size=4, # 最小字体大小
stopwords=STOPWORDS, # 终止词
random_state=30, # 字体偏转量,单位是°
background_color='white', # 背景颜色
max_font_size=200 # 最大字体大小
).generate(myword) # 生成词云
# plt.imshow(mywordCloud) # 绘制
plt.figimage(mywordCloud)
# plt.show()
python.png
plt.imsave(
'python.png',mywordCloud)#保存词云,并且生成文件名为
python.png的词云