错误截图:
解决方法:
1、进入nltk_data/tokenizers文件夹(上图的错误下面有他给出的搜索路径,找到当时下载nltk的文件夹),内部是这样的:
只有一个punkt.zip文件,根据上图中tokenizers/punkt/PY3/english.pickle可知:
我们需要建立如他提示的文件路径!
2、我们需要将punkt.zip解压得到punkt文件夹,进入punkt文件夹:
3、然后建立一个PY3文件夹,将上图所有.pickle文件放进去(建议剪切放进去,外面就不留.pickle文件了,节省点空间)。
结果:
大功告成!
重新运行代码即可分词成功。