继上一篇爬取《我不是药神》的评论后,现在开始使用jieba分词和词云来分析评论。
下面是代码:
import matplotlib.pyplot as plt
from wordcloud import WordCloud
from scipy.misc import imread
import jieba
text = open(r"yaoshen.txt","rb").read()
wordlist = jieba.cut(text)
wl = ' '.join(wordlist) #将分词后的文本存入到一个列表中
#设置停用词
stopwords_list = []
with open('stopwords.txt', 'r') as f:
for line in f.readlines():
stopwords_list.append(line.strip()
) #停用词设置
wc = WordCloud(background_color = "white", #设置背景颜色
mask = imread('shen.png'), #设置背景图片
max_words = 2000, #设置最大显示的字数
stopwords = stopwords_list, #["的", "这种", "这样", "还是", "就是", "这个", "没有","但是", "可以","真的","我们","导演", "看到","一个",'可能','一部'], #设置停用词
font_path = r"C:\Windows\Fonts\simkai.ttf", # 设置为楷体 常规
#设置中文字体,使得词云可以显示(词云默认字体是“DroidSansMono.ttf字体库”,不支持中文)
max_font_size = 60, #设置字体最大值
random_state = 30, #设置有多少种随机生成状态,即有多少种配色方案
)
myword = wc.generate(wl)#生成词云
wc.to_file('result.jpg')
#展示词云图
plt.imshow(myword)
plt.axis("off")
plt.show()
运行后可以得到的词云: