之前一直做词云图,没有总结,今天重新做了一遍,代码放上,免得以后找不到。
import pandas as pd
import numpy as np
import re
import matplotlib.pyplot as plt
from wordcloud import WordCloud
import os
import jieba
from collections import Counter
#必须指定字符位置,否则乱码
fontpath = 'C:\\Windows\\Fonts\\simhei.ttf'
#中文的一些标点也要放进停词表里,如果还有想剔除的词,也可以放在extend里面。
stopwords = [line.strip() for line in open('stopwords_cn.txt',encoding='UTF-8').readlines()]
stopwords.extend([",", "。", "!", "?", "、","(", ")", ":"])
##这里要切词的是一个Series,所以先切每一个,然后把切完的用extend,放进总的列表seg_list
#切分词的材料是post_content。我自己的数据。
seg_list = []
for cont in post_content:
seg = jieba.cut(cont, cut_all=False)
cut_list =[]
for s in seg:
# print(s)
if s in stopwords:
pass
else:
cut_list.append(s)
seg_list.extend(cut_list)
# seg_list
c = Counter(seg_list)
# c.most_common(50)
#发现有很多字符只有一个,这里重新建一个列表,保存长度超过2的词
seg_list2 = []
for seg in seg_list:
if len(seg) >= 2:
seg_list2.append(seg)
else:
pass
c2 = Counter(seg_list2)
c2.most_common(50)
type(c2_200[1]) #是一个由元组组成的列表。
wc = WordCloud()
#个人觉得如果统计词频的话,干脆用generate_from_frequencies,这样比较省事。
wc.generate_from_frequencies(dict(c2.most_common(50)))
wc.background_color = "white"
wc.font_path = fontpath
#######这里要使用 imshow(wc)才能显示图像。
plt.imshow(wc)
##设置坐标刻度不显示
plt.xticks([])
plt.yticks([])
plt.tight_layout()