用Python绘制词云图

前言

词云图是数据分析中比较常见的一种可视化手段。
正好,Python下也有一款词云生成库,word_cloud:https://github.com/amueller/word_cloud
基于我之前爬取的微博数据,制作了一批词云图,由此来讲讲此模块的使用。

一、分词

1.1 制作停止词库

分词之前先准备一下停止词,因为中文中有很多的语气词啊,副词啊等,对于我们展现词频热度是无意义的干扰词。于是,我们就想个法子把他们排除掉。

def make_stopdict():
    stopdict = set()
    f = open("stopwords.txt","r") #网上下载来的停止词文本,近2000个,可以自己往里面添加
    lines = f.readlines()
    for l in lines:
        stopdict.add(l.strip())
    f.close()
    return stopdict
stopdict = make_stopdict()

1.2 分词

利用正则排除掉分词后符号、数字、emoji表情等不容易表明意义的内容,只保留中英文。
分词用的是jieba分词,中文分词领域的大佬:https://pypi.python.org/pypi/jieba/


                
  • 20
    点赞
  • 116
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值