python之jieba库学习笔记

一, 前言

这是一个解决中文问题的库,处理中文信息。将句子分成词语。处理中文字符。 一起康康吧!

二,jieba库的基本介绍

1,jieba库概述

jieba库是优秀的中文分词第三方库

中文文本需要通过分词获得单个的词语
既然是第三方库,需要额外安装
只需要了解其中一个函数就OK

2,jieba库的安装

pip install jieba

3,jieba库的分词原理

jieba分词依靠中文词库
利用一个中文词库,确定中文字符之间的关联概率
中文字符间概率大的组成词组,形成分词结果
除了分词,用户还可以添加自定义词组

三,jieba库的使用说明

1,jieba库分词的三种模式

精确模式:把文本精确的切分开,不存在冗余单词
全模式:把文本中可能出现的单词都扫描出来,有冗余
搜索引擎模式:在精确模式基础上,对长词再次切分

2,jieba库的使用函数

1,jieba.lcut(s)
精确模式,返回一个列表类型的分词结果

>>>jieba.lcut("中国的疫情一定会过去")
['中国', '的', '疫情', '一定', '会', '过去']

这是个列表类型[],

2,jieba.lcut(s,cut_all=True)
全模式,返回一个列表类型的分词结果,有冗余

>>>jieba.lcut("中国的疫情一定会过去",cut_all=True)
['中国', '的', '疫情', '一定', '定会', '过去']

看上去有多余的字词

3,jieba.lcut_for_search(s)
搜索引擎模式,返回一个 列表类型的分词结果,有冗余

>>>jieba.lcut_for_search("中华人民共和国是伟大的")
['中华', '华人', '人民', '共和', '共和国', '中华人民共和国', '是', '伟大', '的']

4,jieba.add_word(w)
向分词字典增加新词w

>>>jieba.add_word("蟒蛇语言")

四,总结

看到这里,就结束了。
百度了一下,jieba库用于分析文档比较方便,分析文档中出现最多的词汇,文档的大概内容。
如果这篇文章帮到你了,我很荣幸。

哈哈哈嗝

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值