20大报告词云统计

20大报告中的关键词和高频词对于学习有很大帮助。尝试利用分词、词云和图像处理三个库

实现一个简单的20大报告分词系统。

分词:jieba

词云:wordcloud

图像处理:imageio

用网上资源生成一个20大报告的txt文件和一个白底的中国地图,

然后选择图片尺寸,字体,底色,掩模,对意义不大的单字如“的、了、是,又”等做去除。

源码如下:

# 词频统计
import wordcloud as wc
import jieba
import imageio.v2 as img
with open("20d报告.txt") as f:
    s = f.read()
ls = jieba.lcut(s)    # 生成分词列表
text = ' '.join(ls)    # 连接成字符串
mask = img.imread('chinamap.jpg')
stopwords = ["的","地","是","了","不","为","在","既","但","有","又","还","并","和","就","都","这"]
w = wc.WordCloud(font_path = "msyh.ttc",
                 mask = mask,
                 width = 1000,
                 height = 700,
                 background_color='white',
                 max_words = 100,
                 stopwords = stopwords).generate(text)
w.to_file('20大.png')

生成的词云图:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值