HanLP 自然语言处理 for nodejs


· 支持中文分词( N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法分析(MaxEnt依存句法分析、CRF依存句法分析)

 

环境要求

java 1.8

nodejs >= 6

 

docker

 

· build image

cd node-hanlp

./scripts/build-docker-image.sh

 

Or pull image

docker pull samurais/hanlp-api:1.0.0

·   start container

docker run -it --rm -p 3002:3000 samurais/hanlp-api:1.0.0

· access service

POST /tokenizer HTTP/1.1

Host: localhost:3002

Content-Type: application/json

 

{

"type": "nlp",

"content": "刘德华和张学友创作了很多流行歌曲"

}

 

RESPONSE

{

  "status": "success",

  "data": [

    {

      "word": "刘德华",

      "nature": "nr",

      "offset": 0

    },

    {

      "word": "和",

      "nature": "cc",

      "offset": 0

    },

    {

      "word": "张学友",

      "nature": "nr",

      "offset": 0

    },

    {

      "word": "创作",

      "nature": "v",

      "offset": 0

    },

    {

      "word": "了",

      "nature": "ule",

      "offset": 0

    },

    {

      "word": "很多",

      "nature": "m",

      "offset": 0

    },

    {

      "word": "流行歌曲",

      "nature": "n",

      "offset": 0

    }

  ]

}

· Other APIs

 

tokenizer 分词

keyword 关键词

summary 摘要

phrase 短语提取

query 关键词、摘要

conversion 简、繁、拼音转换

 

源码

node module

 

· Install

npm install node-hanlp

· Config

 

²  配置文件路径 node_modules/node-hanlp/lib/src-java/hanLP.proerties

²  请修改 root为您的目录路径

²  词典文件目录 ./data

²  请下载词典   pan.baidu.com/s/1pKUVNYF 放入 ./data (约800MB文件) 目录下

 

· Usage

const Hanlp = require("node-hanlp");

//分词库初始化及配置

const HanLP = new Hanlp({

CustomDict : true, //使用自定义词典

NameRecognize : true, //中国人名识别

TranslatedNameRecognize : true , //音译人名识别

JapaneseNameRecognize : true, //日本人名识别

PlaceRecognize : true , //地名识别

OrgRecognize : true //机构名识别

});

let words = HanLP.Tokenizer("商品和服务");

 

标准分词 HanLP.Tokenizer( text )

@param String text [文本]

@ruten Object

let words = HanLP.Tokenizer("商品和服务");

 

[

  { word: '商品', nature: 'n', offset: 0 },

  { word: '和', nature: 'cc', offset: 0 },

  { word: '服务', nature: 'vn', offset: 0 }

]

NLP分词 HanLP.NLPTokenizer( text )

@param String text [文本]

@ruten Object

let words = HanLP.NLPTokenizer("zhongguo科学院计算技术研究所的宗成庆教授正在教授自然语言处理课程");

 

[

  { word: '中国科学院计算技术研究所', nature: 'nt', offset: 0 },

  { word: '的', nature: 'ude1', offset: 0 },

  { word: '宗成庆', nature: 'nr', offset: 0 },

  { word: '教授', nature: 'nnt', offset: 0 },

  ...

]

索引分词 HanLP.IndexTokenizer( text )

@param String text [文本]

@ruten Object

let words = HanLP.IndexTokenizer("主副食品");

 

[

  { word: '主副食品', nature: 'n', offset: 0 },

  { word: '主副食', nature: 'j', offset: 0 },

  { word: '副食', nature: 'n', offset: 1 },

  { word: '副食品', nature: 'n', offset: 1 },

  { word: '食品', nature: 'n', offset: 2 }

]

CRF分词 HanLP.CRFTokenizer( text )

@param String text [文本]

@ruten Object

let words = HanLP.CRFTokenizer("你好,欢迎使用HanLP汉语处理包!");

 

[

  { word: '你好', nature: 'vl', offset: 0 },

  { word: ',', nature: 'w', offset: 0 },

  { word: '欢迎', nature: 'v', offset: 0 },

  { word: '使用', nature: 'v', offset: 0 },

  { word: 'HanLP', nature: 'nz', offset: 0 },

  { word: '汉语', nature: 'gi', offset: 0 },

  ...

]

去除停用词分词 HanLP.NoStopWord( text )

@param String text [文本]

@ruten Object

let words = HanLP.NoStopWord("你好,欢迎使用HanLP汉语处理包!");

 

[

  { word: '你好', nature: 'vl', offset: 0 },

  { word: '欢迎', nature: 'v', offset: 0 },

  { word: '使用', nature: 'v', offset: 0 },

  { word: 'HanLP', nature: 'nz', offset: 0 },

  { word: '汉语', nature: 'gi', offset: 0 },

  ...

]

最短路分词 HanLP.ShortSegment( text )

@param String text [文本]

@ruten Object

let words = HanLP.ShortSegment("今天, liuzhijun 案的关键人物 ,山西女商人 dingshumiao 在市二中院出庭shoushen。 ");

 

[

  { word: '今天', nature: 't', offset: 0 },

  { word: ',', nature: 'w', offset: 0 },

  { word: ' liushijun ', nature: 'nr', offset: 0 },

  { word: '案', nature: 'ng', offset: 0 },

  { word: '的', nature: 'ude1', offset: 0 },

  { word: '关键', nature: 'n', offset: 0 },

  ...

]

N-最短分词 HanLP.NShortSegment( text )

@param String text [文本]

@ruten Object

let words = HanLP.NShortSegment("刘喜杰石国祥会见吴亚琴先进事迹报告团成员");

 

[

  { word: '刘喜杰', nature: 'nr', offset: 0 },

  { word: '石国祥', nature: 'nr', offset: 0 },

  { word: '会见', nature: 'v', offset: 0 },

  { word: '吴亚琴', nature: 'nr', offset: 0 },

  { word: '先进', nature: 'a', offset: 0 },

  ...

]

极速词典分词 HanLP.SpeedTokenizer( text )

@param String text [文本]

@ruten Object

let words = HanLP.SpeedTokenizer("江西鄱阳湖干枯,中国最大淡水湖变成大草原");

 

[

  { word: '江西', offset: 0 },

  { word: '鄱阳湖', offset: 2 },

  { word: '干枯', offset: 5 },

  { word: ',', offset: 7 },

  { word: '中国', offset: 8 },

]

关键词提取 HanLP.Keyword( text , nTop )

@param String text [文本]

@param Number nTop [关键词个数,默认5个]

@ruten Object

let words = HanLP.Keyword("江西鄱阳湖干枯,中国最大淡水湖变成大草原" , 3);

 

[ '中国', '最大', '淡水湖' ]

短语提取 HanLP.Phrase( text , nTop )

@param String text [文本]

@param Number nTop [短语个数,默认3个]

@ruten Object

let words = HanLP.Phrase("江西鄱阳湖干枯,中国最大淡水湖变成大草原" , 2 );

 

[ '中国最大', '变成草原' ]

提取文章摘要 HanLP.Summary( text , nTop )

@param String text [文本]

@param Number nTop [文章摘要条数,默认3条]

@ruten Object

let text = "据美国福克斯新闻报道,俄罗斯黑海舰队一艘护卫舰格里戈罗维奇海军上将号,正在驶向美国军舰发射 daodan 攻击叙利亚的区域。该护卫舰是俄罗斯最先进的护卫舰,2016年才刚服役,除防空、反舰 daodan 外,也可以发射巡航 daodan 。格里戈罗维奇海军上将号原定于本周访问叙利亚的塔尔图斯港。"

 

let words = HanLP.Summary( text , 3);

 

[

  '俄罗斯黑海舰队一艘护卫舰格里戈罗维奇海军上将号',

  '格里戈罗维奇海军上将号原定于本周访问叙利亚的塔尔图斯港',

  '正在驶向美国军舰发射 daodan 攻击叙利亚的区域'

]

文本推荐 HanLP.Suggester( list, words, Ntop )

 

@param Array list 句子列表

@param Array words 词语

@param Number nTop 相似句子推荐个数,默认1个

@ruten Object

 

句子级别,从一系列句子中挑出与输入句子最相似的那一个

语义距离 HanLP.WordDistance( words )

 

@param Array words

@ruten Object

简繁转换 HanLP.ConversionFont( text , type )

 

@param String text 文本

@ruten String type 类型 jt简体|ft繁体,默认jt

@ruten String

拼音转换 HanLP.Pinyin( text , type )

 

@param String text 文本

@ruten String type 类型 类型 num数字音调|tone符号音调|outtone无音调|shengmu声母|yunmu韵母|head输入法头,默认outtone

@ruten Object


来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/31524777/viewspace-2642343/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/31524777/viewspace-2642343/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值