0 安装
在cmd 命令行 输入 pip install jieba
1 分词
import jieba
seg_str='上海自来水厂生产的自来水来自海上'
jieba.lcut(seg_str)#精确模式 试图将语句最精确的切分,不存在冗余数据,适合做文本分析
['上海', '自来水厂', '生产', '的', '自来水', '来自', '海上']
jieba.lcut(seg_str,cut_all=True) #全模式将语句中所有可能是词的词语都切分出来,速度很快,但是存在冗余数据
['上海', '自来', '自来水', '自来水厂', '水厂', '生产', '的', '自来', '自来水', '来自', '海上']
jieba.lcut_for_search(seg_str)# 搜索引擎模式:在精确模式的基础上,对长词再次进行切分
['上海', '自来', '水厂', '自来水', '自来水厂', '生产', '的', '自来', '自来水', '来自', '海上']
jieba.add_word('上海自来水厂') # 添加词语
jieba.lcut(seg_str)
['上海自来水厂', '生产', '的', '自来水', '来自', '海上']
2. 词性识别
import jieba.posseg as psg s = '我今天开心地到杭州西湖旅游,惊讶地看到了白娘子和法海在打架' words = psg.cut(s) for word, flag in words: print(word, flag)
参考:
https://blog.csdn.net/codejas/article/details/80356544
https://www.cnblogs.com/wkfvawl/p/9487165.html
https://www.cnblogs.com/zrmw/archive/2019/06/20/11058554.html