分词:就是把我们要查询的数据拆分成一个个关键字,我们在搜索时,ElasticSearch会把数据进行分词,然后做匹配。默认的中文分词器会把每一个中文拆分,比如“番茄呦呦”,会拆分成“番”,“茄”,“哟”,“哟”,显然,这并不符合我们的要求,所以ik分词器(中文分词器)能解决这个问题。
ik分词器存在两种分词算法:
ik_smart,ik_max_word。其中ik_smart称为智能分词,网上还有别的称呼:最少切分,最粗粒度划分。ik_max_word称为最细粒度划分。
当然我们也可以自定义分词配置
安装好ik分词器后,启动ElasticSearch以及kibana。使用kibana测试
ik_smart测试
GET _analyze
{
"analyzer": "ik_smart",
"text": "番茄呦呦 Nerver give up"
}