python调用中科院分词器进行中文分词之前一直使用python自带的jieba分词来进行中文分词,但是慢慢感觉分词效果不是很好,所以想用中科院的分词器进行分词。先看一下jieba分词效果
import jieba
str1='张三是我的老师'
str2='我是张三的学生'
seg_list1=jieba.cut(str1)
seg_list2=jieba.cut(str2)
print( ", ".join(seg_list1))
print( ", ".join(seg_list2))
结果:
结巴分词详细用法参考:jieba分词快速入门、结巴分词学习大全、结巴分词词性标注
用python调用中科院分词器
参考博客:ht