笔记目录
一, 前言
这是一个解决中文问题的库,处理中文信息。将句子分成词语。处理中文字符。 一起康康吧!
二,jieba库的基本介绍
1,jieba库概述
jieba库是优秀的中文分词第三方库
中文文本需要通过分词获得单个的词语
既然是第三方库,需要额外安装
只需要了解其中一个函数就OK
2,jieba库的安装
pip install jieba
3,jieba库的分词原理
jieba分词依靠中文词库
利用一个中文词库,确定中文字符之间的关联概率
中文字符间概率大的组成词组,形成分词结果
除了分词,用户还可以添加自定义词组
三,jieba库的使用说明
1,jieba库分词的三种模式
精确模式:把文本精确的切分开,不存在冗余单词
全模式:把文本中可能出现的单词都扫描出来,有冗余
搜索引擎模式:在精确模式基础上,对长词再次切分
2,jieba库的使用函数
1,jieba.lcut(s)
精确模式,返回一个列表类型的分词结果
>>>jieba.lcut("中国的疫情一定会过去")
['中国', '的', '疫情', '一定', '会', '过去']
这是个列表类型[],
2,jieba.lcut(s,cut_all=True)
全模式,返回一个列表类型的分词结果,有冗余
>>>jieba.lcut("中国的疫情一定会过去",cut_all=True)
['中国', '的', '疫情', '一定', '定会', '过去']
看上去有多余的字词
3,jieba.lcut_for_search(s)
搜索引擎模式,返回一个 列表类型的分词结果,有冗余
>>>jieba.lcut_for_search("中华人民共和国是伟大的")
['中华', '华人', '人民', '共和', '共和国', '中华人民共和国', '是', '伟大', '的']
4,jieba.add_word(w)
向分词字典增加新词w
>>>jieba.add_word("蟒蛇语言")
四,总结
看到这里,就结束了。
百度了一下,jieba库用于分析文档比较方便,分析文档中出现最多的词汇,文档的大概内容。
如果这篇文章帮到你了,我很荣幸。
哈哈哈嗝