【python】NLP汉语常用工具包总汇

1,汉语常用分词综述

包名

组织

编写语言

主要功能

HanLP

Java

中文分词、命名实体识别、关键词提取、自动摘要、短语提取、拼音转换、简繁转换、文本推荐等

jiagu

tensorflow Bi-LSTM

中文分词、词性标注、命名实体识别、情感分析、知识图谱关系抽取、关键词抽取、文本摘要、新词发现等

jieba

多种语言实现

中文分词、词性标记、关键字提取、自定义词典、并行分词、Tokenize、搜索引擎等

NLPIR

中科院

Java

中文分词、英文分词、词性标注、命名实体识别、新词识别、关键词提取、支持用户专业词典与微博分析

NLTK

宾夕法尼亚大学

python

Tokenize,词型归一化,词性标注,停用词,情感分析,文本相似度,文本分类,句法分析

pyltp

哈工大

C++

分词,分句,自定义词典,词性标注,命名实体识别,依存句法分析,语义角色标注

SpaCy

Cython

词向量,词性标注,依存分析,命名实体识别,可视化,知识提取

StanfordCoreNLP

斯坦福大学

Java

分词、词性标注、命名实体识别、句法成分分析、依存句法分析、

THULAC

清华大学

C++/Java/Python

分词、词性标注

2,相关链接
2.1 HanLP
https://blog.csdn.net/luolinll1212/article/details/102618937
https://github.com/hankcs/HanLP

2.1 jiagu
https://blog.csdn.net/luolinll1212/article/details/101680740
https://github.com/ownthink/Jiagu

2.3 jieba
https://blog.csdn.net/luolinll1212/article/details/100781615
https://blog.csdn.net/luolinll1212/article/details/101194079
https://github.com/fxsjy/jieba

2.4 NLPIR
https://blog.csdn.net/luolinll1212/article/details/102624031
https://www.jianshu.com/p/d53312b43c53
https://github.com/NLPIR-team/NLPIR

2.5 nltk
https://zhuanlan.zhihu.com/p/38231514

2.6 pytlp
https://blog.csdn.net/luolinll1212/article/details/102526400
https://www.jianshu.com/p/f78453f5d1ca

2.7 SpaCy
https://blog.csdn.net/luolinll1212/article/details/102647516
http://sc.hubwiz.com/codebag/zh-spacy-model/
https://blog.csdn.net/shebao3333/article/details/97407644

2.8 StanfordCoreNLP
https://blog.csdn.net/luolinll1212/article/details/101158491
https://cloud.tencent.com/developer/article/1437813

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值