Python--利用结巴进行分词

本文首发于我的博客:gongyanli.com
我的简书:https://www.jianshu.com/p/47b89b98fca6

前言:本文是一些关于jieba分词的简单操作,把文档进行分词后,然后利用wordcloud输出。

一、安装

pip install jieba

二、准备数据

依然是维基百科文章保存为txt,地址https://zh.wikipedia.org/wiki/%E6%AC%A7%E9%98%B3%E4%BF%AE
下载文件simsun.ttf,如果没有这个文件,生成的词云将会是乱码,不是中文。因为wordcloud默认字体是英文,不包含中文编码。

三、分词

`import jieba  # 导入jieba
import matplotlib.pyplot as plt
from wordcloud import WordCloud

filename = "ouyangxiu.txt"
with open(filename) as f:
    mytext = f.read()
    mytext=" ".join(jieba.cut(mytext))  # 进行jieba分词
    wordcloud=WordCloud(font_path="simsun.ttf").generate(mytext) 
    # 中文分词后再生成词云,同时注意指定输出字体simsun.ttf
    plt.imshow(wordcloud,interpolation='bilinear')
    plt.axis("off")
    plt.show()
# print(mytext)

`

四、出图

image

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值