python nltk.download报错_nltk.download()出错解决

回家前,把Python自然语言处理的nltk_data打包到360云盘,然后共享给朋友们,省的大家像我一样浪费时间。

一次性下载解压后即可使用。官方的nltk.download()老是下载失败。无数遍了。浪费了我很多很多时间。

打包下载(推荐):

http://l3.yunpan.cn/lk/QvLSuskVd6vCU?sid=305

下载后放在python/nltk_data目录下即可.

记录下错误提示,以便于朋友们搜索找到。

当时遇到的错误是:

nltk.download()

could not find maxent_treebank_pos_tagger / english .XXX

searched index:

C:\\Python27\\nltk_data\

C:\\nltk_data

D:\\nltk_data

E:\\nltk_data

然后我通过,nltk.download()下载,一直出现错误,只好到

官方下载http://nltk.org/nltk_data/

另外,也可以到nltk.code.google.com 下载,

但是又遇到了下载后,直接放在nltk_data目录,却发现还是不行,程序找不到数据集。

因此我就用nltk.download()试着下载了一个,观察他的文件位置,这才发现原来有好几个文档目录。

用tree命令的到其目录结构如下:

文件夹 PATH 列表

卷序列号为 00000200 B2F8:ED9D

├─chunkers #这一级为nltk_data下的文件夹

│ └─maxent_ne_chunker #这一级为相对应文件夹下的数据文件

├─corpora      #这一级为nltk_data下的文件夹

│ ├─abc        #这一级为相对应文件夹下的数据文件

│ ├─alpino

│ ├─basque_grammars

│ ├─biocreative_ppi

│ ├─book_grammars

│ ├─brown

│ ├─brown_tei

│ ├─cess_cat

│ ├─cess_esp

│ ├─chat80

│ ├─city_database

│ ├─cmudict

│ ├─comtrans

│ ├─conll2000

│ ├─conll2002

│ ├─conll2007

│ ├─dependency_treebank

│ ├─europarl_raw

│ │

│ ├─floresta

│ ├─gazetteers

│ ├─genesis

│ ├─gutenberg

│ ├─hmm_treebank_pos_tagger

│ ├─ieer

│ ├─inaugural

│ ├─indian

│ ├─jeita

│ ├─kimmo

│ ├─knbc

│ │

│ ├─langid

│ ├─large_grammars

│ ├─machado

│ │

│ ├─mac_morpho

│ ├─maxent_ne_chunker

│ ├─maxent_treebank_pos_tagger

│ ├─movie_reviews

│ │

│ ├─names

│ ├─nombank.1.0

│ │

│ ├─nps_chat

│ ├─oanc_masc

│ │

│ ├─paradigms

│ ├─pe08

│ ├─pil

│ ├─pl196x

│ ├─ppattach

│ ├─problem_reports

│ ├─propbank

│ │

│ ├─ptb

│ ├─punkt

│ ├─qc

│ ├─reuters

│ │

│ ├─rslp

│ ├─rte

│ ├─sample_grammars

│ ├─semcor

│ │

│ ├─senseval

│ ├─shakespeare

│ ├─sinica_treebank

│ ├─smultron

│ ├─spanish_grammars

│ ├─state_union

│ ├─stopwords

│ ├─swadesh

│ ├─switchboard

│ ├─tagsets

│ ├─timit

│ │

│ ├─toolbox

│ │

│ ├─treebank

│ │

│ ├─udhr

│ ├─udhr2

│ ├─unicode_samples

│ ├─verbnet

│ ├─webtext

│ ├─wordnet

│ ├─wordnet_ic

│ ├─words

│ └─ycoe

├─grammars

│ ├─basque_grammars

│ ├─book_grammars

│ ├─large_grammars

│ ├─sample_grammars

│ └─spanish_grammars

├─help

│ └─tagsets

├─stemmers

│ └─rslp

├─taggers

│ ├─hmm_treebank_pos_tagger

│ ├─maxent_ne_chunker

│ └─maxent_treebank_pos_tagger

└─tokenizers

└─punkt

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 这段代码是在Python中使用Natural Language Toolkit(NLTK)时下载所需的数据包。其中,'punkt'数据包是用于句子分割和单词分割,'averaged_perceptron_tagger'数据包是用于词性标注,'wordnet'数据包是用于词义相似度计算和同义词查询。通过该代码,可以下载这些数据包并确保在使用NLTK时不会出现缺失数据包的误。 ### 回答2: import nltk 是用来导入Natural Language Toolkit(NLTK)的Python库。NLTK是一个自然语言处理工具包,提供了一系列处理文本的函数和算法。 nltk.download('punkt') 是用来下载分词工具所需的数据包。分词是将一段文本划分成单词的过程,这个数据包包含了对文本进行分词所需的数据。 nltk.download('averaged_perceptron_tagger') 用于下载词性标注工具所需的数据包。词性标注是给每个单词添加一个词性标签的过程,这个数据包包含了进行词性标注所需的数据。 nltk.download('wordnet') 是用来下载WordNet语义数据库所需的数据包。WordNet是一个英语词典,其中包含了大量的单词和它们的定义、同义词、反义词等信息,这个数据包包含了访问WordNet所需的数据。 总之,通过导入和下载这些数据包,我们可以使用NLTK库的分词、词性标注和访问WordNet等功能来处理和分析文本数据。 ### 回答3: import nltk 是导入nltk库,通过这个库可以实现一些自然语言处理的功能。 nltk.download('punkt') 是下载punkt模块,punkt模块是用来进行句子分割和词汇分割的。 nltk.download('averaged_perceptron_tagger') 是下载averaged_perceptron_tagger模块,这个模块是用来进行词性标注的。 nltk.download('wordnet') 是下载wordnet模块,wordnet是一个英语词典数据库,可以用来查找同义词、反义词等词汇关系。 通过以上的导入和下载,我们可以利用nltk库进行自然语言处理相关的任务,如分割句子和单词,进行词性标注以及词汇关系的查找等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值