hanlp for elasticsearch(基于hanlp的es分词插件)

摘要:elasticsearch是使用比较广泛的分布式搜索引擎,es提供了一个的单字分词工具,还有一个分词插件ik使用比较广泛,hanlp是一个自然语言处理包,能更好的根据上下文的语义,人名,地名,组织机构名等来切分词

elasticsearch-analysis-hanlp插件地址:https://github.com/pengcong90/elasticsearch-analysis-hanlp

Elasticsearch

默认分词 
默认分词器

输出: 
输出:

IK分词 
IK

输出: 
输出:

hanlp分词 
hanlp

输出: 
输出:

ik分词没有根据句子的含义来分词,hanlp能根据语义正确的切分出词

安装步骤: 
1、进入https://github.com/pengcong90/elasticsearch-analysis-hanlp,下载插件并解压到es的plugins目录下,修改analysis-hanlp目录下的hanlp.properties文件,修改root的属性,值为analysis-hanlp下的data 
目录的地址

2、修改es config目录下的jvm.options文件,最后一行添加 
-Djava.security.policy=../plugins/analysis-hanlp/plugin-security.policy

重启es

GET /_analyze?analyzer=hanlp-index&pretty=true 

“text”:”张柏芝士蛋糕店” 

测试是否安装成功

analyzer有hanlp-index(索引模式)和hanlp-smart(智能模式)

自定义词典 
修改plugins/analysis-hanlp/data/dictionary/custom下的 我的词典.txt文件 
格式遵从[单词] [词性A] [A的频次] 
修改完后删除同目录下的CustomDictionary.txt.bin文件 

重启es服务


来源:https://blog.csdn.net/pengcong90/article/details/76843760

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值