前言
需要对英文句子按空格进行分词,使用nltk.word_tokenize分词即可,返回的是分好词的列表,比较麻烦的是nltk的下载。
import nltk
i = "The ENT physicians did not recommend any procedures , incision and drainage for his right parotitis or left submandibular cervical lymph node necrosis ."
tmp_sen_words = nltk.word_tokenize(i)
tmp_sen_words

安装nltk
在Anaconda终端(Anaconda Prompt)安装nltk:
pip install nltk
安装成功之后,使用时会发现报错,按照提示信息,使用下面的代码进行下载:

这篇博客介绍了如何使用nltk库进行英文句子的分词。首先在Anaconda环境中安装nltk,然后由于下载问题,作者提供了博客链接和网盘资源进行数据包的获取。下载后解压并根据报错信息将文件放入指定路径,可能需要创建PY3文件夹并将pickle文件移动进去以解决报错。
最低0.47元/天 解锁文章
2496

被折叠的 条评论
为什么被折叠?



