ElasticSearch 中文分词器对比

常用的中文分词器
Smart Chinese Analysis:官方提供的中文分词器,不好用。
IK Analyzer:免费开源的java分词器,目前比较流行的中文分词器之一,简单、稳定,想要特别好的效果,需要自行维护词库,支持自定义词典。
结巴分词:开源的python分词器,github有对应的java版本,有自行识别新词的功能,支持自定义词典。
Ansj中文分词:基于n-Gram+CRF+HMM的中文分词的java实现,免费开源,支持应用自然语言处理。
hanlp:免费开源,国人自然处理语言牛人无私奉献的。

对以上分词器进行了一个粗略对比:

分词器优势劣势
Smart Chinese Analysis官方插件中文分词效果惨不忍睹
IK Analyzer简单易用,支持自定义词典和远程词典词库需要自行维护,不支持词性识别
结巴分词新词识别功能不支持词性识别
Ansj中文分词分词精准度不错,支持词性识别对标hanlp词库略少,学习成本高
Hanlp目前词库最完善,支持的特性非常多需要更优的分词效果,学习成本高

截止到目前为止,他们的分词准确性从高到低依次是:

hanlp > ansj > 结巴 > IK > Smart Chinese Analysis

结合准确性来看,选用中文分词器基于以下考虑:

List item

  • 官方的Smart Chinese Analysis直接可以不考虑了

  • 对搜索要求不高的建议选用 IK 学习成本低,使用教程多,还支持远程词典

  • 对新词识别要求高的选用结巴分词

  • Ansj和hanlp均基于自然处理语言,分词准确度高,活跃度来讲hanlp略胜一筹

IK Analyzer
截止目前,IK分词器插件的优势是支持自定义热更新远程词典。
IK分词器的劣势: ik_max_word是穷举所有可能词,导致搜索一些不相关的也会被搜到。
比如:
‘任性冲动过’分词结果居然有任性、性冲动、动过,那么搜’性冲动’就会把这个doc搜索到。
南京市长江大桥’,结果是南京市、市长、长江大桥,那么搜’市长’也会把这个doc搜索到。

IK分词器的github地址:
https://github.com/medcl/elasticsearch-analysis-ik

hanlp 中文分词器
hanlp中文分词器的官网为:
https://www.hanlp.com/
hanlp中文分词器的github地址为:
https://github.com/hankcs/HanLP

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值