# 导入库
from wordcloud import WordCloud
from imageio import imread
import jieba
# from collections import Counter
# 读入txt文本数据
text = open(r'C:\Users\15423\Desktop\词云制作\threekingdoms.txt', "r", encoding='utf-8').read()
# 结巴中文分词,生成字符串,默认精确模式,如果不通过分词,无法直接生成正确的中文词云
cut_text = jieba.lcut(text)
#去掉不重要的词
removes =[',','。','"',':','曰','将军', '二人','却说','\n<
三国演义 制作词云 2------python
最新推荐文章于 2024-06-16 10:55:13 发布
这篇博客介绍了如何使用Python的`wordcloud`库和`jieba`库从三国演义文本中生成词云图。首先,通过读取txt文件并进行中文分词,然后去除不重要的词汇和重复的词语。接着,统计词频并设置了人名的替换规则。最后,使用中国地图作为词云的背景,并调整了词云图的样式,将结果保存为png图像。
摘要由CSDN通过智能技术生成