操作系统
win10 64位
准备环境
pip3 install re - 正则表达式库
pip3 install collections - 词频统计库
pip3 install numpy - numpy数据处理库
pip3 install jieba - 结巴分词
pip3 install wordcloud - 词云展示库
pip3 install PIL - 图像处理库
pip3 install matplotlib.pyplot - 图像展示库
准备工作
1.准备好你打算统计的文件,命名为 cr.txt,记住路径
2.准备一个做背景的图片,命名为 m1.jpg,记住路径
代码参考:
import re # 正则表达式库
import collections # 词频统计库
import numpy as np # numpy数据处理库
import jieba # 结巴分词
import wordcloud # 词云展示库
from PIL import Image # 图像处理库
import matplotlib.pyplot as plt # 图像展示库
# 读取文件
fn = open(r'C:\Users\cr\rmh.txt','r',encoding='utf-8') # 打开文件
string_data = fn.read() # 读出整个文件
fn.close() # 关闭文件
# 文本预处理
pattern = re.compile(u'\t|\n|\

本文介绍了在Python3环境下,如何利用jieba分词、wordcloud库以及相关工具包,进行中文词云的制作。内容包括环境安装、文本预处理、词频统计和词云展示,提供了一个完整的词云生成流程。
最低0.47元/天 解锁文章

3932

被折叠的 条评论
为什么被折叠?



