自然语言处理
JenniferWD
没事就瞎写写,瞎搞搞
展开
-
nltk_data离线安装时的一些坑
在下载好nltk_data并放到nltk搜索目录后,有以下几件事要记得做:1、 运行代码import nltknltk.download()然后点all ——> download2、语料库里的压缩文件要记得解压缩3、如何添加搜索路径?from nltk import datadata.path.append(r"要添加的路径")...原创 2020-03-17 08:24:12 · 1415 阅读 · 2 评论 -
中文分词学习笔记一:jieba分词介绍
一、中文分词的概念:二、中文分词的方法:三、中文分词的工具:jiebahttps://github.com/fxsjy/jieba特点(1)支持三种分词模式:【精确模式】试图将句子最精确地切开,适合文本分析;【全模式】把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;【搜索引擎模式】在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词...原创 2019-10-11 10:51:01 · 451 阅读 · 0 评论 -
学习自然语言处理的网站
Chinese NLP:https://chinesenlp.xyz/#/我爱自然语言处理:http://www.52nlp.cn/category/chinese-information-processing原创 2019-10-11 11:26:13 · 570 阅读 · 0 评论