#第一次写文章,不足之处还请给位大佬批评指正##
##中文文本词云
import jieba
import wordcloud
def getText():
f = open(fname,"r",encoding="utf-8")
t = f.read() #读出来,存在t中使以字符的形式
f.close()
ls = jieba.lcut(t) #采用jieba库分词,返回一个列表类型
txt = " ".join(ls) #此时返回的为字符串类型
return txt
print("请输入打开路径及中文文件名:")
fname = input()
txt = getText() #txt为以空格分隔的字符串
w = wordcloud.WordCloud(font_path = "msyh.ttc",width = 1000,height = 700,\
background_color = "white")
# font_path = "msyh.ttc" 作用为设置字体为微软雅黑
w.generate(txt)
w.to_file("C词云.png")
##英文文本词云
#英文词云
import wordcloud
from time import sleep
def getText():
txt = open(fname,"r").read() #打开文件,读取文件
txt = txt.lower() #将英文字符全改为小写
for ch in '!"#$%&()*+,-./:;<=>?@[\\]^_{|}·~‘’':
txt = txt.replace(ch," ") #遍历文本中的特殊符号,替换为空格
return txt
print("请输入打开路径及英文文件名:")
fname = input()
txt = getText() #txt为以空格分隔的字符串
w = wordcloud.WordCloud(width=1000,height=700,max_words=1000)
w.generate(txt)
w.to_file("E词云.png")
sleep(3)
###这两个词云文件分别实现了对中文.txt文件和英文.txt文件词云生成的操作,起初用作某篇文章的提取关键信息,后来无聊用作qq聊天记录文件操作,此程序还在起步阶段,只能部分智能化,暂且作为一个模块,后期会结合爬虫抓取网页文件,生成不同形状的词云图片,不足之处还请各位大佬指正!