中文自然语言工具包调查研究

              中文自然语言工具包调查研究

1.1 Stanford corenlp中文模块

中文支持任务:支持封闭式命名实体识别,语义依存分析,句法分析,不支持语义角色标注,开放信息提取。Java软件包。是目前使用较广的综合性自然语言处理包。

扩展性方面[二次开发]:提供了Java源代码可以做二次开发
在线演示平台:http://corenlp.run/
官网主页:https://nlp.stanford.edu/
https://stanfordnlp.github.io/CoreNLP/

已配置完成!

1.2 哈工大语言开放平台LTP
语言技术平台(LTP)提供包括中文分词、词性标注、命名实体识别、依存句法分析、语义角色标注等丰富、 高效、精准的自然语言处理技术。经过哈工大社会计算与信息检索研究中心11 年的持续研发和推广,LTP 已经成为国内外最具影响力的中文处理基础平台,曾获CoNLL 2009七国语言句法语义分析评测总成绩第一名,中文信息学会钱伟长一等奖等重要成绩和荣誉。目前,LTP 已经被 500 多家国内外研究机构和企业使用,多家大企业和科研机构付费使用。和科大讯飞合作开发的语言平台云服务。

主页官网:https://www.ltp-cloud.com/
在线演示平台:http://ltp.ai/demo.html
HTTPS API接口调用:https://www.ltp-cloud.com/document/
python接口封装:http://pyltp.readthedocs.io/zh_CN/develop/api.html

1.2 复旦大学Fudanlp
由复旦大学自然语言实验室(http://nlp.fudan.edu.cn/)开发的Java中文处理工具。FNLP提供了多种中文处理工具,包括分词、词性标注、实体名识别、依存句法分析、指代消解,时间短语识别与归一化。由于上面的模块其他的软件均可提供,目前暂不部署该软件。

代码下载:https://github.com/FudanNLP/fnlp/releases
安装说明:https://github.com/FudanNLP/fnlp/wiki/quicktutorial

1.4 东北大学NiuParser

东北大学自然语言处理实验室 自从1980年创立以来一直从事语言分析和机器翻译技术研究工作,基于三十多年的雄厚研究积累,研制了一套中文句法语义分析系统NiuParser。
NiuParser系统能够支持中文句子级的自动分词、词性标注、命名实体识别、组块识别、成分句法分析、依存句法分析和语义角色标注七大语言分析技术。所有代码采用C++语言开发,全部自主完成,不包含任何其它开源代码,拥有独立完整的知识产权。
NiuParser的特点是分析速度快并且拥有业内最好的分析性能,可以被广泛应用于研制基于深度计算的文本分析和文本挖掘等商业应用系统。
但提供C++ 源代码,提供了SDK文件可以本地部署。

官网:http://www.niuparser.com/
已配置完成!

1.5 Hanlp
HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 在提供丰富功能的同时,HanLP内部模块坚持低耦合、模型坚持惰性加载、服务坚持静态提供、词典坚持明文发布,使用非常方便,同时自带一些语料处理工具,帮助用户训练自己的语料。HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。不仅仅是分词,而是提供词法分析、句法分析、篇章理解(关键词提取,自动摘要,短语提取),不包括句义解析。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。
http://hanlp.linrunsoft.com/doc.html
已配置完成!

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值