NLP工具的一些整理~

NLP全系列处理工具:

 哈工大的Ltp3.X——包括内容:中文分词、词性标注、未登录词识别、句法分析、语义 角色标注。

                          ——网址:https://github.com/HIT-SCIR/ltp/releases

                          ——开发语言:C++

Stanford NLP    ——包括内容:中文分词、词性标注、未登录词识别、句法分析等

                         ——网址:http://nlp.stanford.edu/software/index.shtml

                          ——开发语言:java

FudanNLP        ——包括内容:中文分词、句法分析等

                         ——网址:https://code.google.com/p/fudanlp/

                         ——开发语言:java

HanLP              ——包含内容:中文分词、句法分析等功能

                         ——网址:https://github.com/hankcs/HanLP

                          ——开发语言:java

优秀的NLP分词工具:

ICTCLAS分词系统——具有里程碑意义的中文分词系统

                             ——网址:https://github.com/NLPIR-team/NLPIR

                             ——开发语言C++

Ansj中文分词系统——中等规模的中文分词系统

                            ——网址:https://github.com/NLPchina/ansj_seg

                            ——开发语言:java

结巴分词             ——小规模中文分词

                           ——网址:https://github.com/fxsjy/jieba

                           ——开发语言:Python

上述系统除了提供源码之外,很多还提供了接口,有的是web页面。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值