python中jieba lcut_python中jieba库的介绍和应用

jieba库作为python中的第三方库,在平时是非常实用的,例如一些网站就是利用jieba库的中文分词搜索关键词进行工作。

一、安装环境

window + python

二、安装方式

在电脑命令符(cmd)中直接写进下面的语句:pip install jieba 即可

三、jieba库分词的基本原理

1、利用中文词库,分析汉字与汉字之间的关联几率

2、还有分析汉字词组的关联几率

3、还可以根据用户自定义的词组进行分析

四、jieba库三种模式和对应的三个函数

精确模式 : 把文本精确的切分开,不存在冗余单词 (就是切分开之后一个不剩的精确组合)

全模式 : 把文本中所有可能的词语都扫描出来,有冗余

即: 可能有一个文本,可以从不同的角度来切分,变成不同的词语。在全模式下把不同的词语都挖掘出来

搜索引擎模式:在精确模式基础上,对长词语再次切分

函数

对应模式

lcut(s)

精确模式,没有多余

lcut(s,cut_all=Ture)

全模式,有多余,长词组

lcut_for_search(s)

搜索引擎模式,有多余,长词组

例如:

4156aad2d8b736c75b8dbe97dfbb65b4336.png

b998937dbf983084433a9a27206a12ba4f6.png

以上就是jieba库的一些基本的知识。

五、jieba库词频统计实例

利用jieba库找出一篇文章中的关键词

1、先把文章存为记事本的txt文件

2、利用结巴库

代码如下:

1 importjieba2 txt = open("jiebatxt.txt","r", encoding = 'GBK').read() #读取已存好的txt文档

3 words = jieba.lcut(txt) #进行分词

4 counts ={}5 for word inwords:6 if len(word)== 1: #去掉标点字符和其它单字符

7 continue

8 else:9 counts[word] = counts.get(word, 0) + 1 #计数

10 items = list(counts.items()) #把对象对象转化为列表形式,利于下面操作

11

12 #sort() 函数用于对原列表进行排序,如果指定参数,则使用比较函数指定的比较函数

13 #reverse 排序规则,reverse = True 降序, reverse = False 升序(默认)

14 #key 是用来比较的参数

15

16 items.sort(key=lambda x: x[1], reverse =True)17 for i in range(10):18 word, count=items[i]19 print("{0:<10}{1:>5}".format(word, count))

得出结果:

40a8ba9d89ae1f8fb89c1a873b1faed4936.png

还有一种就是词云图显示,具体请进入下面链接:

https://www.cnblogs.com/liyanyinng/p/10652472.html

可以先看效果:

b4f9c18945fc7aaa6b2297d21cb770684a1.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值