自然语言处理笔记

NLTK 和jieba

官方网址: http://www.nltk.org/
python上著名的自然语言处理库,自带语料库,词性分类库,自带分类,分词,等等功能,还有N多的简单版wrapper

安装NLTK和jieba:

sudo pip install -U nltk
sudo pip install -U numpy
sudo pip install jieba

下载语料库:

import nltk
nltk.download()

在这里插入图片描述

英文分词(Tokenize):

from nltk
sentence = "hello world"
# 分词
tokens = nltk.word_tokenize(sentence)
>>>['hello', 'world']

中文分词:

import jieba
seg_list = jieba.cut("我来到北京清华大学", cut_all=True)
print("Full Mode: " + "/ ".join(seg_list))  # 全模式

seg_list = jieba.cut("我来到北京清华大学", cut_all=False)
print("Default Mode: " + "/ ".join(seg_list))  # 精确模式

seg_list = jieba.cut("他来到了网易杭研大厦")  # 默认是精确模式
print(", ".join(seg_list))

seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造")  # 搜索引擎模式
print(", ".join(seg_list))

输出:

全模式】:/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学

【精确模式】:/ 来到/ 北京/ 清华大学

【新词识别】:他, 来到,, 网易, 杭研, 大厦    (此处,“杭研”并没有在词典中,但是也被Viterbi算法识别出来了)

【搜索引擎模式】: 小明, 硕士, 毕业,, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所,,, 日本, 京都, 大学, 日本京都大学, 深造
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值