源码下载的地址:https://github.com/fxsjy/jieba
演示地址:http://jiebademo.ap01.aws.af.cm/
一 “结巴”中文分词:做最好的 Python 中文分词组件 。
- 支持三种分词模式:
- 精确模式,试图将句子最精确地切开,适合文本分析;
- 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
- 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
- 支持繁体分词
- 支持自定义词典
- MIT 授权协议
二 Jieba中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。下载介绍在Python里安装Jieba。
1. 安装方式一:
1)下载Jieba 。官网地址:http://pypi.python.org/pypi/jieba/ 并解压。
2)安装 D:\>cd D:\Download\jieba-0.39
D:\Download\jieba-0.39>python setup.py install
2. 安装方式二:
三 原理及算法
1)基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)
2)采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合