文章目录
!!!请先查看各个版本的对应关系(不对应的版本可能出现启动异常)
https://www.elastic.co/cn/support/matrix#matrix_compatibility
!!!重要提示(改完配置文件后请关闭你的编辑器,避免文件占用导致的启动异常)
1.elasticsearch 安装及其配置
下载地址:https://www.elastic.co/cn/downloads/past-releases/elasticsearch-7-6-1
选择 WINDOWS 版即可
下载完后解压到当前目录即可
回到解压文件夹的 bin 目录,双击 “elasticsearch.bat” 即可
启动完成后,在浏览器中输入:
http://localhost:9200/
出现JSON界面即成功!
2.elasticsearch-head
下载地址:https://github.com/mobz/elasticsearch-head
下载后解压,然后在此目录下进入cmd命令(当然前提是你的电脑中有node 环境!!!)
# 编译项目
npm install
# 编译完成后就可以启动了
npm run start
浏览器访问测试是否正常
3.修改elasticsearch配置(解决无法连接问题)
修改elasticsearch.yml文件
# 增加如下配置
http.cors.enabled: true
http.cors.allow-origin: "*"
然后重启 elasticsearch 服务
刷新 elasticsearch -head,则可以看到 连接成功
3.Kibana
下载:https://www.elastic.co/cn/downloads/past-releases/kibana-7-6-1
可以使用中文界面,更改config下的配置文件 kibana.yml
#中文界面配置
i18n.locale: "zh-CN"
查看启动情况:
http://localhost:5601/
4.IK分词插件
下载地址:https://github.com/medcl/elasticsearch-analysis-ik/tree/v7.6.1
解压之后的包放到 “elasticsearch-7.6.1\plugins”的插件目录下即可
如这样:
推荐改革文件夹名字,为 “ik”
然后重启 elasticsearch 服务即可.
我们来看一下分词器的效果:
#最小拆分匹配
GET _analyze
{
"analyzer": "ik_smart",
"text":"海绵宝宝ID"
}
#最大拆分
GET _analyze
{
"analyzer": "ik_max_word",
"text":"海绵宝宝ID11"
}
自定义分词规则配置
1.找到如下配置文件
我们给自己的字典配置起个名字 “my.dic”
然后对到 ik 的config 目录下 创建文件 my.dic
里面可以写一些你自己的分词规则**(警告:这里一定要注意文件编码设置成UTF-8不然会不生效!!!)**,如
配置完成后需要重启 elasticsearch 服务。
重启完成之后,我们再来查询 一下 “海绵宝宝ID” 时候就能直接把整个词组作为分析内容之一了,如这样:
可以看到,我们的分词规则都有了!大功告成!
撒花…