python中文分词,加了jieba分词的包,还有词云输出的字体,我从博客上复制了一段带有评论信息的数据。衔接上一篇英文词云。
文章参考王叔义老师的教程。
from wordcloud import WordCloud
import jieba
import matplotlib.pyplot as plt
f=file('fzw.txt')
mytext=f.read()
print(mytext)
mytextcn=" ".join(jieba.cut(mytext))
print(mytextcn)
wordcloud= WordCloud(font_path="simsun.ttf").generate(mytextcn)
%pylab inline ///如果不适用这句 魔法命令 图形就会另外打开一个窗口 使用这句命令 就会让作图出现在 jupyter notebook的浏览器中///
plt.imshow(wordcloud,interpolation='bilinear')
plt.axis('off')