本文将介绍以下内容:
- 使用 jieba 分词
- 使用 pyltp 分词
- 使用 pkuseg 分词
- 使用 nltk 分词
通常,NLP无法一下子处理完整的段落或句子,因此,第一步往往是分句和分词。这里我们将介绍几种分词方法。
一,使用 jieba 分词
可参考我之前写过的文章:https://blog.csdn.net/TFATS/article/details/108810284
二,使用 pyltp 分词
可参考我之前写过的文章:https://blog.csdn.net/TFATS/article/details/108511408
三,使用 pkuseg 分词
可参考我之前写过的文章:https://blog.csdn.net/TFATS/article/details/108851344
四,使用 nltk 分词
nltk 工具一般在英文文本中作为词嵌入工具使用。这里只介绍 tokenize
方法,对于详细的使用方法可以参考:https://www.cnblogs.com/chen8023miss/p/11458571.html
http://www.pythontip.com/blog/post/10012/
注: 在安装nltk时可能会产生一些问题,可以参考我之前分享的文章: https://blog.csdn.net/TFATS/article/details/108519904
from nltk import word_tokenize
sent1 = "I love sky, I love sea."
sent2 = "I like running, I love reading."
sents = [sent1, sent2]
texts = [[word for word in word_tokenize(sent)] for sent in sents]
# ------ output------
[['I', 'love', 'sky', ',', 'I', 'love', 'sea', '.'], ['I', 'like', 'running', ',', 'I', 'love', 'reading', '.']]