Python可视化之词云

话不多说,直接上代码:

import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt
import numpy as np
from PIL import Image

data=[]#存储原始数据
stopword={}#停用词
words={}#存储词汇:词频对
with open("雪中悍刀行.txt", 'r', encoding='utf-8') as file1:
    data=file1.readlines()
with open("cn_stopwords.txt", 'r', encoding='utf-8') as file2:
    stopword = {line.strip() for line in file2}

#对文章分词
data=''.join(data)
data=data.replace(r'\n','')
data=jieba.cut(data,cut_all=False)#可选择分词模式

#统计词频
for item in data:
    if len(item)>2:
        if not words.__contains__(item):
            words[item]=1
        else:
            words[item]+=1
            
#导入绘制词云的图片,也可不添加使用默认值,之后初始化词云就不必设置mask属性
img=Image.open(r"heart.jpg")
img=np.array(img)

#初始化词云
my_wordcolud=WordCloud(
    background_color='white',#背景颜色
    max_words=40,#关键词个数
    font_path=r"D:\pyproject\bigdata\data\SourceHanSansSC-VF.ttf",#字体格式,绘制中文词云需要用到
    mask=img,#图片模板
    width=1000,
    height=1000
).generate_from_frequencies(words)
plt.figure(figsize=(18,16))
plt.imshow(my_wordcolud)
plt.axis('off')
plt.show()#展示词云
my_wordcolud.to_file(r'词云.jpg')#保存词云

结果展示:

这里只是分词后简单统计词频,所以结果仅供参考,如果需要代码中停用词表、图片、字体的,评论留下邮箱即可。
以上。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值