elasticsearch 5.5.3 安装ik分词器,并且使用分词器

  首先先说两点,两个不要。

           1:貌似es上5版本,至少5.5.3是这样,就不能在elasticsearch.yml配置以index开头的配置信息了。如index.number_of_shards: 5。所以就不要写  index.analysis.analyzer.default.type: ik 这样的配置了。

             2   :分词换成了 ik_smart  和  ik_max_word。所以也不要用这样的方法验证了 http://localhost:9200/indexname/_analyze?analyzer=ik&pretty=true&text=中国爸爸


---------------------------------------------------------------------------------------------------------------------------


提供一个下载地址   elasticsearch-analysis-ik-5.5.3.zip


----------------------------------------------------------------------------

1 在elasticsearch的plugins文件夹下新建ik目录




2  讲下载下来的ik分词器解压,复制它里面的内容到新建的ik文件夹下面



3 启动或者重启elasticsearch,要是看启动日志。应该能看到这样的信息    loaded plugin [analysis-ik]


4 测试ik时候安装成功  ,自己新建一个索引库,名字随便,叫index吧,忽略我存的两个字段没影响的。随便怎么样的库都行


然后打开postman,啥  没有   。。。那就打开浏览器  输入  http://127.0.0.1:9200/index/_analyze?analyzer=ik_smart&pretty=true&text=我是中国人


结果如下 



ik_smart 和 ik_max_word 是两个不同的拆分粒度,自己可测,后者更加细致,可能更占空间

到这里ik分词算是安装成功了。接下来讲下怎么使用分词

---------------------------------------------------------------------------------------------------

我们一般会为索引建立mapping,如text,long,date等。在建立的同时来指定时候使用,以及使用怎样的分词


这些一些建立mapping的type。

将其变成大概这样的来建立索引 {"properties":{"name":{"store":"true","type":"keyword"},"location3":{"analyzer":"ik_max_word","store":"true","type":"text"}}}

当然你也可以用curl来建立。


建立完成之后查看mapping索引信息




大概就应该算是成功了







展开阅读全文

没有更多推荐了,返回首页