WordCloud利用杂记

接下来是一些WordCloud包的利用杂记

from wordcloud import WordCloud
‘’‘ 引入jieba包对文本段进行合理切分’‘’
import jieba
import matplotlib.pyplot as plt
from collections import Counter
"""对于给定的一篇TXT来进行分析"""
mylist = list(open(r'C:\Users\15850\PycharmProjects\untitled\BIG DATA BASICS\wordcloud\12333.txt',encoding = 'utf8'))

'''得到所分析文本的列列表'''
wordlist = [','.join(jieba.cut(sentence)) for sentence in  mylist]

new_text = ','.join(wordlist)
'''取出长度大于10个词的单词来作为词云的数据基础(考虑到英语虚词长度较长所以选择长度为10,但应该可能会有更好的分类标准)'''
target_text = [x for x in jieba.cut(new_text) if len(x)>=10]
frequences  =  dict(Counter(target_text).most_common())
wordcloud = WordCloud(background_color = 'azure').fit_words(frequences)
plt.imshow(wordcloud)
plt.axis('off')


plt.show()

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值