功能:用于中文文本的分词,第三方库,需要独立安装
原理:利用中文词库,来确定汉字间关联
安装:pip install jieba
使用:
jieba.lcut(' '),精确模式使用
如图:
实用举例:统计文本中出现最多次数的词语,输出前十和个数
结果:
功能:用于中文文本的分词,第三方库,需要独立安装
原理:利用中文词库,来确定汉字间关联
安装:pip install jieba
使用:
jieba.lcut(' '),精确模式使用
如图:
实用举例:统计文本中出现最多次数的词语,输出前十和个数
结果: