相关安装包自行下载
安装
解压elasticsearh 安装包
1、进入解压目录下bin 运行elasticsearch.bat 即可
启动成功,访问:http://127.0.0.1:9200/ 看到返回结果表示成功
2、解压kibana安装包
进入解压好的kibana文件目录,运行/bin/kibana.bat
启动成功后控制台:localhost:5601
kibana配置中文
如果不做配置应该显示的都是英文。
kibana 汉化配置:
修改后 重启kibana即可。
IK 中文分词器
直接解压分词器的压缩包,扔进这个新建的analysis-ik文件夹中 ,一定注意版本对应
扩展IK词字典
我们解压到ik目录下的分词器插件里边有一个config目录找到里边的IKAnalyzer.cfg.xml的文件配置我们自己的分词文件就可以。
分词字典规则
新建一个名字后缀为dic的文件,然后每一行一个词就可以。
例如:
我自己新建一个名字为myself_test.dic的文件,然后里边内容为:
然后将改文件配置到扩展分词器的配置文件中:
接下来如我们的某一个字段需要用到IK分词器碰到 “刘德华” “成龙” “周星驰” 这样的字段将不会给我们拆开了。
当然这个扩展字典也可以使用接口动态添加。具体参考文档:
https://github.com/medcl/elasticsearch-analysis-ik
head插件
先装nodejs ,装好后查看版本
再装grunt
执行 cnpm install -g grunt-cli 因为装nodejs的时候我配置了淘宝的镜像 所以用cnpm 这样比较快
下图表示安装成功
开始安装head
进入elasticsearch 安装目录下的config目录,修改elasticsearch.yml文件.在文件的末尾加入以下代码
-
http.cors.enabled: true http.cors.allow-origin: "*" node.master: true node.data: true
在https://github.com/mobz/elasticsearch-head中下载head插件,选择下载zip
解压到指定文件夹下 进入解压后的文件夹 找到Gruntfile.js 在对应的位置加上hostname:'*', 注意要有逗号
然后在解压文件夹路径 npm install
安装完成后执行grunt server 或者npm run start 运行head插件,如果不成功重新安装grunt。
执行localhost:9100 就ok了