python自学笔记之wordcloud库jieba库绘制词云的用法(一)

python第三方库Wordcloud和jieba库绘制词云(自学笔记一)

 *首先绘制词云需要安装一个pip的第三方库wordcloud
 打开cmd命令行输入:**pip install wordcloud**
 或者直接在pypi官网下载相应的.whl文件,然后手动安装。

wordcloud库提供了三个最主要的方法生成词云,
一个是wordcloud.WordCloud( font_path=” “,/ #字体风格
width=1000,height=1000,/ #生成像素为1000*1000的词云图片
)
另一个是wordcloud.generate() ,即生成词云图片,
最后一个是wordcloud.to_file(” path”),即将生成的词云保存在地址里。

jieba 库提供了一个最主要的功能,那就是分词功能。
用法

f1=open("chat.txt","r",encoding="utf-8").read()
list=[]
list=jieba.lcut(f1) #此时的列表为chat文本分词后的列表
 我想要查看一篇中文文章的侧重点是什么,但是我又不想去阅读。这时候,我们可以使用我们的python脚本进行对其产生词云处理,可以很快地知道文章的重点要讲什么。下面,我们对百度百科随便选取一篇人物传记进行词云处理。 

百度搜索一篇人物传记:

这里写图片描述

完整代码如下:

import jieba
import wordcloud
f=open("d:\wenzhang.txt","r",encoding="utf-8")
t=f.read()
f.close()
ls=jieba.lcut(t)
txt="".join(ls)
w=wordcloud.WordCloud(font_path="msyh.ttc",\
                     width=1000,height=700,background_color="white",\
                          )
w.generate(txt)
w.to_file("d:\ciyun.png")

在我们的电脑D盘根目录下寻找我们生成的词云分析图片
这里写图片描述

最终得到我们想要的词云图片,可以看出文章在全国上映的电影有很多,失恋33天为其居榜首。
通过python提供的第三方库jieba库,对中文分词具有很强的能力,以及wordcloud库生成词云,我们可以用短短十行代码分析一篇文章的重点。
  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Metroplitan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值