04-Elasticsearch-ES集成IK分词器

分词器

分词器汇总

分词器

拆分方式

standard

空格

simple

非字母

whitespace

空格

stop

去除英文的助词(a the is)

keyword

不拆分(关键词)

ik_max_word

最大词汇拆分

ik_smart

最小词汇拆分

默认分词器

POST /_analyze
{
  "analyzer": "standard",
  "text": ["I study in imooc.com!"]
}

默认分词器, 英文按照空格拆分, 中文直接拆成单个汉字, 大写自动转小写

在指定索引中分析指定字段

POST /my_doc/_analyze
{
  "analyzer": "standard",
  "field": "desc",
  "text": ["study in imooc"]
}

ES集成IK

下载

https://github.com/medcl/elasticsearch-analysis-ik/releases?page=7

安装

上传到Linux

# 解压到插件库下
unzip elasticsearch-analysis-ik-7.4.2.zip -d /usr/local/es/plugins/ik

重启es

ik集成完成

配置自定义字库

修改ik/config/IKAnalyzer.cfg.xml

vi IKAnalyzer.cfg.xml

vi cust.dic

再次执行分词

okk

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值