Python中处理中文文本库jiebe、snowNLP

本文介绍了Python中处理中文文本的两个库——jieba和SnowNLP。jieba用于分词操作,而SnowNLP是一个简化版的中文文本处理库,灵感来源于TextBlob,但不依赖NLTK,提供了自我实现的算法和预训练字典,适用于Unicode编码的中文文本处理。
摘要由CSDN通过智能技术生成
  • jieba
import jieba
x='分词的准确度直接影响了后续文本处理和挖掘算法的最终效果'
jieba.cut(x)
list(_)

输出结果为:

['分词',
 '的',
 '准确度',
 '直接',
 '影响',
 '了',
 '后续',
 '文本处理',
 '和'
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值