一对好兄弟:NLTK与jieba浅析

小圈长话短说,让我们开始吧!

首先来看,jieba和NLTK都是python中的库,只不过有不同的用途而已。可能大家都听说过 :中文分词用jieba ,英文分词用NLTK。那么,我们就从这里展开。

NLTK

主要用于英文的文本处理:

1)可用来分词

tokens= nltk.word_tokenize("hello,world")
print(tokens);

输出结果如下:

[‘hellow’, ‘,’ , ‘world’]

2)可进行归一化
通过Stemming 实现词干提取:即去掉单词的小尾巴
比如:去ed,s,es,ing
通过Lemmatization实现词形归一:各类词变形为一个形式
比如:went>>go; are>>be; is>>be
3)可以进行停用词过滤
通过filter进行停用词过滤

典型案例:

情感分析,文本分类,文本相似度处理等

英文文本一般的处理流程:

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值