政府工作报告词云

政府工作报告词云

在这里插入代码片
import re
import collections  # 词频统计库
import numpy as np # numpy数据处理库
import jieba  # 结巴分词
import wordcloud # 词云展示库
from PIL import Image  # 图像处理库
import matplotlib.pyplot as plt # 图像展示库

# 读取文件
fn = open("政府工作报告.txt","r",encoding="utf-8")
string_data = fn.read()
fn.close()

# 文本预处理

# 定义正则表达式匹配模式
pattern = re.compile(u'\t|,|/|。|\n|\.|-|:|;|\)|\(|\?|"') 
# 将符合模式的字符去除
string_data = re.sub(pattern,'',string_data)  


# 文本分词
# 精确模式分词
seg_list_exact = jieba.cut(string_data,cut_all=False)  
object_list = []
# 自定义去除词库
remove_words = [u'的',u'要', u'“',u'”',u'和',u',',u'为',u'是',
                '以' u'随着', u'对于', u'对',u'等',u'能',u'都',u'。',
                u' ',u'、',u'中',u'在',u'了',u'通常',u'如果',u'我',
                u'她',u'(',u')',u'他',u'你',u'?',u'—',u'就',
                u'着',u'说',u'上',u'这', u'那',u'有', u'也',
                u'什么', u'·', u'将', u'没有', u'到', u'不', u'去'] 


for word in seg_list_exact:
    if word not in remove_words:
        object_list.append(word)


# 词频统计

# 对分词做词频统计
word_counts = collections.Counter(object_list) 
# 获取前30最高频的词
word_counts_top30 = word_counts.most_common(30) 
print(word_counts_top30)

# 词频展示

# 定义词频背景
mask = np.array(Image.open('bg.png'))  
wc = wordcloud.WordCloud(
    font_path='C:/Windows/Fonts/simsun.ttc',# 设置字体
    mask = mask,# 背景图设置
    background_color="white",#设置背景图颜色
    width=1600, height=1200,#设置长宽
    max_words=300,# 最多显示词数
    max_font_size=100,min_font_size=4)# 字体最大最小值


# 从字典生成词云
wc.generate_from_frequencies(word_counts) 
# 从背景图建立颜色方案
image_colors = wordcloud.ImageColorGenerator(mask) 
# 将词云颜色设置为背景图方案
wc.recolor(color_func=image_colors)  
# 通过分辨率放大或缩小图片
plt.figure(dpi=300)
# 显示词云
plt.imshow(wc) 
# 关闭坐标轴
plt.axis('off') 
# 显示图像
plt.show() 

温馨提示:
1、本人小白一名高手请绕道,库请安装完成。
2、字体随便在电脑中找一个即可。
3、图片随便在电脑中找一个png格式的即可。
4、政府工作报告网上下一个就行。
5、所有文件请放在一个文件夹内。

图片
在这里插入图片描述

展开阅读全文
©️2019 CSDN 皮肤主题: 数字20 设计师: CSDN官方博客
应支付0元
点击重新获取
扫码支付

支付成功即可阅读