1,读取jie.txt中的文章
2,使用jieba进行分词
3,读stopwords.txt中的停运词,来判读清洗文章中的停运词。
4,使用jieba提取关键词,withWeight =True中的TRUE表示提取词向量,FALSH表示不提取
5,pip 安装 pyecharts和WordCloud两模块
6,stopwords.txt停运词自行百度,应该都有。
from pyecharts import WordCloud
import jieba.analyse
import codecs
#第一步:分词,这里使用结巴分词全模式
stop_words ="".join([
w.strip()
for w in codecs.open(
"./jie.txt",
"r",
encoding="utf-8",
).readlines()
])
#print(stop_words)
fenci_text = jieba.cut