![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
中文分词算法
清风不识字12138
清风不识字,何故乱翻书!
展开
-
【转】中文分词-结巴jieba手册
jieba“结巴”中文分词:做最好的 Python 中文分词组件“Jieba” (Chinese for “to stutter”) Chinese text segmentation: built to be the best Python Chinese word segmentation module.Scroll down for English documentation.特点支持三种分词转载 2017-11-29 13:38:02 · 4692 阅读 · 1 评论 -
中文分词
中文分词常用的库–jieba一、安装pip install jieba 或者去这里下载安装二、使用使用手册参见这里 登陆不了可以看这里 结果如图:原创 2017-11-29 13:39:39 · 278 阅读 · 0 评论 -
python2.7安装使用thulac库时遇到的一些问题
环境:Windows10、python2.7.14、thulac-0.1.1 提示错误:Traceback (most recent call last): File "", line 1, in File "C:\Python27\lib\site-packages\thulac_init_.py", line 58, in init self.__tagging_decoder.init((转载 2018-01-03 16:29:57 · 1594 阅读 · 0 评论