词云
使用jieba库和wordcloud库相结合的方式,产生精确分词的词云图。
import jieba
import wordcloud
#打开文件,记得采用utf-8编码解析中文文字
f=open("D:\python\wenben\西游记.txt","r", encoding="utf-8")
#读取内容到t
t =f.read()
f.close()
#采用jieba分词,结果为ls,其中含有很多单个字符
ls =jieba.lcut(t)
#下条主要是为了排除一个字符以下的词,没有这条文本将会分出都是单字。
ls = [word for word in ls if len(word)>1]
#下行代码将分好的列表词,转为空格分隔的字符串
txt=" ".join(ls)
#配置词云对象w
w =wordcloud.WordCloud(
font_path ="D:\python\wenben\AdobeHeitiStd-Regular.otf",
width= 1000,
height =700,
background_color ="white")
#加载txt到词云对象中并输出结果为词云.png
w.generate(txt)
w.to_file("词云.png")
文件备份
name=input("请输入文件名:")
old=open(name,'r