各位学python的朋友,是否也曾遇到过这样的问题,举个例子如下:
I am proud of my motherland
如果我们需要提取中间的单词要走如何做?
自然是调用string中的split()函数即可
那么将这转换成中文呢,“我为我的祖国感到骄傲”再分词会怎样?
中国词汇并不像是英文文本那样可以通过空格又或是标点符号来区分,
这将会导致比如“骄傲”拆开成“骄”、“傲”,又或者将“为”“我的”组合成“为我的”等等
那如何避免这些问题呢? 这就用到了今天介绍的python基础库——jieba库
这里有我自己整理了一套最新的python系统学习教程,包括从基础的python脚本到web开发、
爬虫、数据分析、数据可视化、机器学习等。
小编这里推荐加小编的python学习群:895,817, 687
一、什么是jieba库?
jieba库是优秀的中文分词第三方库 ,它可以利用一个中文词库,确定汉字之间的关联概率将汉字间概率大的组成词组,形成分词结果,将中文文本通过分词获得单个的词语。jieba分词的三种模式 :精确模式、全模式、搜索引擎模式
- 精确模式:把文本精确的切分开,不存在冗余单词
- 全模式:把文本中所有可能的词语都扫描出来,有冗余