python学习笔记–中文词云
提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加
发现词云的展示还挺有意思的,比较多的应用场景是给用户打标签,社交软件应用较多。今天随便找了一些文字电影《肖申克的救赎》的一些评价,做了一个词云,其实还挺简单的。
Python的学习路上真的需要这样的小成功来激发更多学习的动力。
Come on!
提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
提示:这里可以添加本文要记录的大概内容:
词云统计挺好玩的,出来的效果也不错。
提示:以下是本篇文章正文内容,下面案例可供参考
一、词云统计常用的库?
import jieba #中文分词库 提供三种模式分词:精确 jieba.cut(s) 无冗余,全模式 jieba.lcut(s,cut_all =True) 有冗余, 探索模式 jieba.lcut_for_search(s) 有冗余
import collections #词频统计
import wordcloud #生成词云
二、使用步骤
1.引入库
引入相关的库:
import jieba #中文分词库 提供三种模式分词:精确 jieba.cut(s) 无冗余,全模式 jieba.lcut(s,cut_all =True) 有冗余, 探索模式 jieba.lcut_for_search(s) 有冗余
import collections #词频统计
import wordcloud #生成词云
import mat