Elasticsearch之快速入门篇(个人笔记)

本文是Elasticsearch的快速入门笔记,涵盖了Elasticsearch与Solr的区别、Lucene简介、Docker环境下安装Elasticsearch的步骤,以及ES的核心概念如文档、类型、索引和倒排索引。此外,还介绍了IK分词器的使用和RESTful API的基本操作。通过这个指南,读者可以快速了解并开始使用Elasticsearch。
摘要由CSDN通过智能技术生成

Elasticsearch概述

       Elasticsearch是一个开源的分布式、RESTful 风格的搜索和数据分析引擎,它的底层是开源库Apache Lucene。
  Lucene 可以说是当下最先进、高性能、全功能的搜索引擎库——无论是开源还是私有,但它也仅仅只是一个库。为了充分发挥其功能,你需要使用 Java 并将 Lucene 直接集成到应用程序中。 更糟糕的是,您可能需要获得信息检索学位才能了解其工作原理,因为Lucene 非常复杂。
  为了解决Lucene使用时的繁复性,于是Elasticsearch便应运而生。它使用 Java 编写,内部采用 Lucene 做索引与搜索,但是它的目标是使全文检索变得更简单,简单来说,就是对Lucene 做了一层封装,它提供了一套简单一致的 RESTful API 来帮助我们实现存储和检索。
  当然,Elasticsearch 不仅仅是 Lucene,并且也不仅仅只是一个全文搜索引擎。 它可以被下面这样准确地形容:

  • 一个分布式的实时文档存储,每个字段可以被索引与搜索;
  • 一个分布式实时分析搜索引擎;
  • 能胜任上百个服务节点的扩展,并支持 PB 级别的结构化或者非结构化数据。

谁在使用:

  1. 维基百科,类似百度百科,全文检索,高亮,搜索推荐(权重,百度!)
  2. The Guardian (国外新闻网站),类似搜狐新闻,用户行为日志(点击,浏览,收藏,评论)+社交网络数据(对某某新间的相
    关看法),数据分析 ,给到每篇新闻文章的作者,让他知道他的文章的公众反馈(好,坏,热门,垃圾,鄙视,崇拜)
  3. Stack overflow(国外的程序异常讨论论坛),T问题,程序的报错,提交上去,有人会跟你讨论和回答,全文检索,搜索相关问题和答案,程序报错了,就会将报错信息粘贴到里面去,搜索有没有对应的答案。
  4. GitHub(开源代码管理),搜索上千亿行代码
  5. 电商网站,检索商品
  6. 日志数据分析,logstash采集日志,ES进行复杂的数据分析,ELK技术,elasticsearch+logstash+kibana
  7. 商品价格监控网站,用户设定某商品的价格國值,当低于该國值的时候,发送通知消息给用户,比如说订阅牙膏的监控,如果高露洁牙膏的家庭套装低于50块钱,就通知我,我就去买。
  8. BI系统,商业智能,Business Intelligence。比如说有个大型商场集团,BI,分析一下某某区域最近3年的用户消费金额的趋势以及用户群体的组成构成,产出相关的数张报表,**区,最近3年,每年消费金额呈现100%的增长,而且用户群体85%是高级白领,开一个新商场。ES执行数据分析和挖掘,Kibana进行数据可视化
  9. 国内:站内搜索(电商,招聘,门户,等等),IT系统搜索(OA,CRM,ERP,等等),数据分析(ES热门的一个使用场景)

ES和Solr差别

Elasticsearch简介

       Elasticsearch是一个实时分布式搜索和分析引擎。它让你以前所未有的速度处理大数据成为可能。

它用于全文搜索、结构化搜索、分析以及将这三者混合使用:

  • 维基百科使用Elasticsearch提供全文搜索并高亮关键字,以及输入实时搜索(search-asyou-type)和搜索纠错(did-you-mean)等搜索建议功能
  • 英国卫报使用Elasticsearch结合用户日志和社交网络数据提供给他们的编辑以实时的反馈,以便及时了解公众对新发表的文章的回应。
  • Stackoverflow结合全文搜索与地理位置查询,以及more-like-this功能来找到相关的问题和答案。
  • Github使用Elasticsearch检索1300亿行的代码。

       但是Elasticsearch不仅用于大型企业,它还让像DataDog以及klout这样的创业公司将最初的想法变成可扩展的解决方案。

       Elasticsearch可以在你的笔记本上运行,也可以在数以百计的服务器上处理PB级别的数据

       Elasticsearch是一个基于Apache Lucene(TM)的开源搜索引擎。无论在开源还是专有领域,Lucene可以被认为是迄今为止最先进、性能最好的、功能最全的搜索引擎库

       但是,Lucene只是一个库。想要使用它,你必须使用Java来作为开发语言并将其直接集成到你的应用中,更糟糕的是,Lucene非常复杂需要深入了解检索的相关知识来理解它是如何工作的

       Elasticsearch也使用Java开发并使用Lucene作为其核心来实现所有索引和搜索的功能,但是它的目的是通过简单的 RESTful API 来隐藏Lucene的复杂性,从而让全文搜索变得简单

Solr简介

       Solr是Apache 下的一个顶级开源项目,采用Java开发,它是基于Lucene的全文搜索服务器Solr提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展,并对索引、搜索性能进行了优化

       Solr可以独立运行,运行在Jetty、Tomcat等这些Servlet容器中,Solr 索引的实现方法很简单,用POST 方法向 Solr 服务器发送一个描述 Field 及其内容的XML 文档,Solr根据xml文档添加、删除、更新索引。Solr搜索只需要发送 HTTP GET 请求,然后对 Solr返回xml、json等格式的查询结果进行解析 ,组织页面布局。Soir不提供构建UI的功能,Solr提供了一个管理界面,通过管理界面可以查询Solr的配置和运行情况。

       solr是基于lucene开发企业级搜索服务器,实际上就是封装了lucene。

       Solr是一个独立的企业级搜索应用服务器,它对外提供类似于Web-service的API接口。用户可以通过http请求,向搜索引擎服务器提交一定格式的文件,生成索引;也可以通过提出查找请求,并得到返回结果。

Lucene简介

       Lucene是apache软件基金会4 jiakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包,但它不是一个完整的全文检索引擎,而是一个全文检素引擎的架构,提供了完整的查询引擎和索引引擎 ,部分文本分析引擎(英文与德文两种西方语言)。

       Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎。Lucene是一套用于全文检索和搜寻的开源程式库,由Apache软件基金会支持和提供。Lucene提供了一个简单却强大的应用程式接口,能够做全文索引和搜寻。在Java开发环境里Lucene是一个成熟的免费开源工具。就其本身而言,Lucene是当前以及最近几年最受欢迎的免费Java信息检索程序库。人们经常提到信息检索程序库,虽然与搜索引擎有关,但不应该将信息检索程序库与搜索引擎相混淆。

       Lucene是一个全文检索引擎的架构。那什么是全文搜索引擎?

       全文搜索引擎是名副其实的搜索引擎,国外具代表性的有Google、Fast/AllTheweb、AltaVista、Inktomi、Teoma、WiseNut等,国内著名的有百度(Baidu)。它们都是通过从互联网上提取的各个网站的信息(以网页文字为主)而建立的数据库中,检索与用户查询条件匹配的相关记录,然后按一定的排列顺序将结果返回给用户 ,因此他们是真正的搜素引擎。

       从搜素结果来源的角度,全文搜素引擎又可细分为两种,一种是拥有自己的检索程序(Indexer),俗称"蜘蛛”( Spider )程序或’机器人〞(Robot)程序,并自建网页数据库,搜索结果直接从自身的数据库中调用,如上面提到的7家引擎;另一种则是租用其他引擎的数据库,并按自定的格式排列搜索结果,如Lycos引擎.

Elasticsearch和Solr比较

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Elasticsearch VS Solr 总结

  1. es基本是开箱即用,非常简单。Solr安装略微复杂一丢丢!
  2. Solr利用 zookeeper 进行分布式管理,而 Elasticsearch 自身带有分布式协调管理功能。
  3. Solr 支持更多格式的数据,比如SON、xML、CSV,而 Elasticsearch 仅支持 json 文件格式。
  4. Solr 官方提供的功能更多,而 Elasticsearch 本身更注重于核心功能,高级功能多有第三方插件提供,例如图形化界面需要 kibana 友好支撑
  5. Solr 查询快,但更新索引时慢( 即插入删除慢),用于电商等查询多的应用,慢慢也转向 Elasticsearch ;
    • ES建立索引快(即查询慢),即实时性查询快 ,用于facebook新浪等搜索
    • Solr 是传统搜索应用的有力解决方案,但Elasticsearch 更适用于新兴的实时搜索应用。
  6. Solr比较成熟,有一个更大,更成熟的用户、开发和贡献者社区,而 Elasticsearch相对开发维护者较少,更新太快,学习使用成本较高。

Docker环境下安装Elasticsearch

ELK简介

       ELK是Elasticsearch、Logstash、kibana三大开源框架首字母大写简称。市面上也被成为Elastic stack。

       其中Elasticsearch是一个基于Lucene、分布式、通过Restful方式进行交互的近实时搜索平台框架。像类似百度、谷歌这种大数据全文搜索引擎的场景都可以使用Elasticsearch作为底层支持框架,可见Elasticsearch提供的搜索能力确实强大,市面上很多时候我们简称Elasticsearch为es。

       Logstash是ELK的中央数据流引擎,用于从不同目标( 文件/数据存储/MQ)收集的不同格式数据,经过过滤后支持输出到不同目的地(文件/MQ/redis/elasticsearch/kafka等)。

       kibana是一个针对Elasticsearch的开源分析及可视化平台,用来搜索、查看交互存储在Elasticsearch素引中的数据。使用Kibana可以通过各种图表进行高级数据分析及展示。Kibana止海量数据更容易理解。它操作简单,基于浏览器的用户界面可以快速创建仪表板(dashboard)实时显示Elasticsearch查询动态。设置Kibana非常简单。无需编码或者额外的基础架构 ,几分钟内就可以完成Kibana安装并启动Elasticsearch素乌监测。kibana可以将elasticsearch的数据通过友好的页面展示出来,提供实时分析的功能。

       市面上很多开发只要提到ELK能够一致说出它是一个日志分析架构技术栈总称,但实际上ELK不仅仅适用于日志分析,它还可以支持其它任何数据分析和收集的场景,日志分析和收集只是更具有代表性。并非唯一性。

总结一下就是:收集清洗数据——>建立索引,储存——>Kibana分析
在这里插入图片描述

安装Elasticsearch

目录介绍:

bin 启动文件
config 配置文件
    log4j2 日志配置文件
    jvm. options java 虚拟机相关配置
    elasticsearch.yml
lib 相关jar包
logs 日志
modules 功能模块
plugins 插件

从Docker Hub拉取ElasticSearch:

test-MBP:~ test$ docker search elasticsearch
NAME                                          DESCRIPTION                                     STARS     OFFICIAL   AUTOMATED
elasticsearch                                 Elasticsearch is a powerful open source sear5347      [OK]       
nshou/elasticsearch-kibana                    Elasticsearch-7.15.1 Kibana-7.15.1              134                  [OK]
mobz/elasticsearch-head                       elasticsearch-head front-end and standalone82                   
elastichq/elasticsearch-hq                    Official Docker image for ElasticHQ: Elastic77                   [OK]
itzg/elasticsearch                            Provides an easily configurable Elasticsearc71                   [OK]
elastic/elasticsearch                         The Elasticsearch Docker image maintained by57                   
taskrabbit/elasticsearch-dump                 Import and export tools for elasticsearch       27                   [OK]
lmenezes/elasticsearch-kopf                   elasticsearch kopf                              18                   [OK]
barnybug/elasticsearch                        Latest Elasticsearch 1.7.2 and previous rele17                   [OK]
justwatch/elasticsearch_exporter              Elasticsearch stats exporter for Prometheus     17                   
blacktop/elasticsearch                        Alpine Linux based Elasticsearch Docker Image   16                   [OK]
esystemstech/elasticsearch                    Debian based Elasticsearch packing for Lifer15                   
monsantoco/elasticsearch                      ElasticSearch Docker image                      11                   [OK]
mesoscloud/elasticsearch                      [UNMAINTAINED] Elasticsearch                    9                    [OK]
arcseldon/elasticsearch-kibana-marvel-sense   ElasticSearch-2.3.5 Kibana-4.5.3 Marvel Sense   8                    
centerforopenscience/elasticsearch            Elasticsearch                                   4                    [OK]
dtagdevsec/elasticsearch                      elasticsearch                                   4                    [OK]
barchart/elasticsearch-aws                    Elasticsearch AWS node                          3                    
axway/elasticsearch-docker-beat               "Beat" extension to read logs of containers1                    [OK]
phenompeople/elasticsearch                    Elasticsearch is a powerful open source sear1                    [OK]
kuzzleio/elasticsearch                        Elasticsearch container based on Alpine Linu1                    [OK]
dsteinkopf/elasticsearch-ingest-attachment    elasticsearch + ingest-attachment to be used1                    [OK]
jetstack/elasticsearch-pet                    An elasticsearch image for kubernetes PetSets   1                    [OK]
wreulicke/elasticsearch                       elasticsearch                                   0                    [OK]
travix/elasticsearch-kubernetes               To run ElasticSearch in kubernetes and expor0                    [OK]
test-MBP:~ test$ docker pull elasticsearch:7.8.0
7.8.0: Pulling from library/elasticsearch
524b0c1e57f8: Downloading 
7a096b8f20be: Download complete 
9dd8117fbfec: Download complete 
335891dbdd0e: Download complete 
dfce820717b4: Download complete 
82d3459719f7: Download complete 
2e79822fece3: Download complete 
2f80b981dd6a: Download complete 
05f8a08da0ba: Download complete 
7.8.0: Pulling from library/elasticsearch
524b0c1e57f8: Pull complete 
7a096b8f20be: Pull complete 
9dd8117fbfec: Pull complete 
335891dbdd0e: Pull complete 
dfce820717b4: Pull complete 
82d3459719f7: Pull complete 
2e79822fece3: Pull complete 
2f80b981dd6a: Pull complete 
05f8a08da0ba: Pull complete 
Digest: sha256:945f80960f2ad1bd4b88bd07a9ba160d22d4285bbc8a720d052379006d5d57a6
Status: Downloaded newer image for elasticsearch:7.8.0
docker.io/library/elasticsearch:7.8.0
test-MBP:~ test$ docker images
REPOSITORY      TAG       IMAGE ID       CREATED         SIZE
elasticsearch   7.8.0     121454ddad72   17 months ago   810MB
test-MBP:~ test$ 

新建网络,如果需要安装kibana、logstash等其他,需要创建一个网络,名字任意取,让它们在同一个网络,使得es和kibana、logstash通信。

docker network create -d bridge 网络名称
-d:参数指定 Docker 网络类型,有 bridge、overlay。其中 overlay 网络类型用于 Swarm mode。

test-MBP:~ test$ docker network create -d bridge es-net
1a3cb60832111771b6eda580c4bf5c03608b34db0a482213ca0691a45c2f0762
test-MBP:~ test$ docker network ls
NETWORK ID     NAME      DRIVER    SCOPE
0ed40a7e5ecd   bridge    bridge    local
1a3cb6083211   es-net    bridge    local
65bb643181ef   host      host      local
d1584fea4569   none      null      local
test-MBP:~ test$ 

在宿主机上创建存储elasticsearch配置文件、数据以及plugins的数据卷:

test-MBP:~ test$ cd /Users/test/Documents/Development-Configuration
test-MBP:Development-Configuration test$ sudo mkdir -p /myelasticsearchdata/config
test-MBP:Development-Configuration test$ sudo mkdir -p /myelasticsearchdata/data
test-MBP:Development-Configuration test$ sudo mkdir -p /myelasticsearchdata/plugins

在宿主机上配置elasticsearch的elasticsearch.yml配置文件:

test-MBP:Development-Configuration test$ cd /Users/test/Documents/Development-Configuration/myelasticsearchdata/config
test-MBP:config test$ echo "network.host: 0.0.0.0" >> elasticsearch.yml
test-MBP:config test$ chmod -R 777 /Users/test/Documents/Development-Configuration/myelasticsearchdata/config/elasticsearch.yml

创建elasticsearch容器并运行容器:

test-MBP:~ test$ docker run --name elasticsearch7.8.0 --net es-net -p 9200:9200 -p 9300:9300 -e ES_JAVA_OPTS="-Xms200m -Xmx200m" -e "discovery.type=single-node" -v /Users/test/Documents/Development-Configuration/myelasticsearchdata/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /Users/test/Documents/Development-Configuration/myelasticsearchdata/data:/usr/share/elasticsearch/data -v /Users/test/Documents/Development-Configuration/myelasticsearchdata/plugins:/usr/share/elasticsearch/plugins -it elasticsearch:7.8.0
72ac331854e39ffd67d225b68e894b9bf7af8aebfa45202a6ef4570cb1e40e3f
test-MBP:~ test$ docker ps
CONTAINER ID   IMAGE                 COMMAND                  CREATED         STATUS         PORTS                                            NAMES
72ac331854e3   elasticsearch:7.8.0   "/tini -- /usr/local…"   4 minutes ago   Up 4 minutes   0.0.0.0:9200->9200/tcp, 0.0.0.0:9300->9300/tcp   elasticsearch7.8.0
test-MBP:~ test$ 
----------------------------------------------
命令说明:
test-MBP:~ test$ docker run --name elasticsearch7.8.0 # 给容器取一个别名
--net es-net # 指定容器的网络连接
-p 9200:9200 -p 9300:9300 # 暴露宿主机上的92009300 端口映射到容器的 92009300 端口上,9200ES节点和外部通讯使用,9300ES节点之间的通讯使用
-e ES_JAVA_OPTS="-Xms200m -Xmx200m" # 指定JVM 内存占用 200m,可根据实际情况调整
-e "discovery.type=single-node" # 指定为单节点模式
-v /Users/test/Documents/Development-Configuration/myelasticsearchdata/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml # 创建数据卷,将宿主机上myelasticsearchdata/config/elasticsearch.yml 映射到容器里的 elasticsearch.yml-v /Users/test/Documents/Development-Configuration/myelasticsearchdata/data:/usr/share/elasticsearch/data 
-v /Users/test/Documents/Development-Configuration/myelasticsearchdata/plugins:/usr/share/elasticsearch/plugins 
-di elasticsearch:7.8.0 /bin/bash # -d: 后台运行容器,并返回容器IDi: 以交互模式运行容器,通常与 -t 同时使用;-t: 为容器重新分配一个伪输入终端,通常与 -i 同时使用;后面的/bin/bash的作用是表示载入容器后运行bash ,docker中必须要保持一个进程的运行,要不然整个容器启动后就会马上kill itself,这样当你使用docker ps 查看启动的容器时,就会发现你刚刚创建的那个容器并不在已启动的容器队列中。这个/bin/bash就表示启动容器后启动bash

进入elasticsearch7.8.0容器进行配置elasticsearch.yml文件:

test-MBP:~ test$ docker ps
CONTAINER ID   IMAGE                 COMMAND                  CREATED       STATUS       PORTS                                            NAMES
72ac331854e3   elasticsearch:7.8.0   "/tini -- /usr/local…"   3 hours ago   Up 3 hours   0.0.0.0:9200->9200/tcp, 0.0.0.0:9300->9300/tcp   elasticsearch7.8.0
test-MBP:~ test$ docker exec -it 72ac331854e3 /bin/bash
[root@72ac331854e3 elasticsearch]# pwd
/usr/share/elasticsearch
[root@72ac331854e3 elasticsearch]# ls
LICENSE.txt  NOTICE.txt  README.asciidoc  bin  config  data  jdk  lib  logs  modules  plugins
[root@72ac331854e3 elasticsearch]# cd config
[root@72ac331854e3 config]# ls
elasticsearch.yml  jvm.options  jvm.options.d  log4j2.properties  role_mapping.yml  roles.yml  users  users_roles
[root@72ac331854e3 config]# cat elasticsearch.yml
http.host: 0.0.0.0
[root@72ac331854e3 config]# vi elasticsearch.yml
[root@72ac331854e3 config]# exit

elasticsearch.yml文件:

# 集群名称,es服务会通过广播方式自动连接在同一网段下的es服务,通过多播方式进行通信,同一网段下可以有多个集群,通过集群名称这个属性来区分不同的集群
cluster.name: elasticsearch

# 当前配置所在机器的节点名,你不设置就默认随机指定一个name列表中名字,该name列表在esjar包中config文件夹里name.txt文件中,其中有很多作者添加的有趣名字。
node.name: "node-1"

# 指定该节点是否有资格被选举成为node(注意这里只是设置成有资格, 不代表该node一定就是master),默认是truees是默认集群中的第一台机器为master,如果这台机挂了就会重新选举masternode.master: true

# 指定该节点是否存储索引数据,默认为truenode.data: true

# 设置默认索引分片个数,默认为5片。
#index.number_of_shards: 5

# 设置默认索引副本个数,默认为1个副本。如果采用默认设置,而你集群只配置了一台机器,那么集群的健康度为yellow,也就是所有的数据都是可用的,但是某些复制没有被分配。
#index.number_of_replicas: 1

# 设置配置文件的存储路径,默认是es根目录下的config文件夹。
#path.conf: /path/to/conf

# 设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开,例:path.data: /path/to/data1,/path/to/data2
#path.data: /path/to/data

# 设置临时文件的存储路径,默认是es根目录下的work文件夹。
#path.work: /path/to/work

# 设置日志文件的存储路径,默认是es根目录下的logs文件夹
#path.logs: /path/to/logs

# 设置插件的存放路径,默认是es根目录下的plugins文件夹, 插件在es里面普遍使用,用来增强原系统核心功能。
#path.plugins: /path/to/plugins

# 设置为true来锁住内存不进行swapping。因为当jvm开始swappinges的效率 会降低,所以要保证它不swap,可以把ES_MIN_MEMES_MAX_MEM两个环境变量设置成同一个值,并且保证机器有足够的内存分配给es。 同时也要允许elasticsearch的进程可以锁住内存,linux下启动es之前可以通过`ulimit -l unlimited`命令设置。
#bootstrap.mlockall: true

# 设置绑定的ip地址,可以是ipv4ipv6的,默认为127.0.0.1#network.bind_host: 192.168.0.1

# 设置其它节点和该节点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址。
#network.publish_host: 192.168.0.1

# 这个参数是用来同时设置bind_hostpublish_host上面两个参数。设置为0.0.0.0以后就可以让任何计算机节点访问到了
network.host: 0.0.0.0

# 支持跨域,跨域配置是为了kibanahead连接
http.cors.enabled: true
http.cors.allow-origin: "*"

# 设置为true锁住内存,当服务混合部署了多个组件及服务时,应开启此操作,允许es占用足够多的内存。
bootstrap.memory_lock: false

# es优化,是否支持过滤掉系统调用
bootstrap.system_call_filter: false

# 设置节点之间交互的tcp端口,默认是9300transport.tcp.port: 9300

# 设置是否压缩tcp传输时的数据,默认为false,不压缩。
transport.tcp.compress: true

# 设置对外服务的http端口,默认为9200http.port: 9200

# 设置内容的最大容量,默认100mb
http.max_content_length: 100mb

# 是否使用http协议对外提供服务,默认为true,开启。
#http.enabled: true

# gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统,分布式文件系统,hadoopHDFS,和amazons3服务器等。
#gateway.type: local

# 设置集群中N个节点启动时进行数据恢复,默认为1gateway.recover_after_nodes: 1

# 设置初始化数据恢复进程的超时时间,默认是5分钟。
gateway.recover_after_time: 5m

# 设置这个集群中节点的数量,默认为2,一旦这N个节点启动,就会立即进行数据恢复。
gateway.expected_nodes: 2

# 初始化数据恢复时,并发恢复线程的个数,默认为4cluster.routing.allocation.node_initial_primaries_recoveries: 4

# 添加删除节点或负载均衡时并发恢复线程的个数,默认为4cluster.routing.allocation.node_concurrent_recoveries: 4

# 设置数据恢复时限制的带宽,如入100mb,默认为0,即无限制。
#indices.recovery.max_size_per_sec: 0

# 设置这个参数来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5#indices.recovery.concurrent_streams: 5

# 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4discovery.zen.minimum_master_nodes: 1

# 设置集群中自动发现其它节点时ping连接超时时间,默认为3秒,对于比较差的网络环境可以高点的值来防止自动发现时出错。
#discovery.zen.ping.timeout: 3s

# 设置是否打开多播发现节点,默认是true#discovery.zen.ping.multicast.enabled: false

# 设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点。
discovery.zen.ping.unicast.hosts: ["host1", "host2:port", "host3[portX-portY]"]

访问 http://localhost:9200 能看到 ElasticSearch 信息就运行成功了:
在这里插入图片描述

安装ik分词器

  1. 这个 elasticsearch-analysis-ik 版本要和 elasticsearch 版本对应,下载地址
  2. 将下载好的 elasticsearch-analysis-ik-7.8.0.zip 上传到Linux服务器,在Linux服务器中拷贝到 Dockerelasticsearch 的 容器中,具体路径 /usr/share/elasticsearch/plugins 目录下,最后重启 elasticsearch 容器测试即可。
test-MBP:~ test$ docker ps -a
CONTAINER ID   IMAGE                 COMMAND                  CREATED             STATUS                        PORTS     NAMES
d330c700ac4a   elasticsearch:7.8.0   "/tini -- /usr/local…"   About an hour ago   Exited (143) 44 minutes ago             elasticsearch7.8.0
test-MBP:~ test$ docker exec -it d330c700ac4a /bin/bash
Error response from daemon: Container d330c700ac4abff139a68d9ccf9fb9afffc4e5edfe1ef9073b024f089189d2f4 is not running
test-MBP:~ test$ docker exec -it d330c700ac4a /bin/bash
[root@d330c700ac4a elasticsearch]# ls
LICENSE.txt  NOTICE.txt  README.asciidoc  bin  config  data  jdk  lib  logs  modules  plugins
[root@d330c700ac4a elasticsearch]# cd plugins/
[root@d330c700ac4a plugins]# ls
elasticsearch-analysis-ik-7.8.0

安装elasticsearch-head

从Docker Hub拉取elasticsearch-head:

test-MBP:~ test$ docker pull mobz/elasticsearch-head:5
5: Pulling from mobz/elasticsearch-head
75a822cd7888: Pull complete 
57de64c72267: Pull complete 
4306be1e8943: Pull complete 
871436ab7225: Pull complete 
0110c26a367a: Pull complete 
1f04fe713f1b: Pull complete 
723bac39028e: Pull complete 
7d8cb47f1c60: Pull complete 
7328dcf65c42: Pull complete 
b451f2ccfb9a: Pull complete 
304d5c28a4cf: Pull complete 
4cf804850db1: Pull complete 
Digest: sha256:55a3c82dd4ba776e304b09308411edd85de0dc9719f9d97a2f33baa320223f34
Status: Downloaded newer image for mobz/elasticsearch-head:5
docker.io/mobz/elasticsearch-head:5
test-MBP:~ test$ docker images
REPOSITORY                TAG       IMAGE ID       CREATED         SIZE
elasticsearch             7.8.0     121454ddad72   17 months ago   810MB
mobz/elasticsearch-head   5         b19a5c98e43b   4 years ago     824MB
test-MBP:~ test$ 

创建elasticsearch-head容器并运行容器:

test-MBP:~ test$ docker run --restart=always --name elasticsearch-head -it -p 9100:9100 mobz/elasticsearch-head:5
Running "connect:server" (connect) task
Waiting forever...
Started connect web server on http://localhost:9100
----------------------------------------------
命令说明:
docker run --restart=always #Docker 重启时,容器能自动启动。–restart具体参数值详细信息:no -  容器退出时,不重启容器;on-failure - 只有在非0状态退出时才从新启动容器;always - 无论退出状态是如何,都重启容器;
--name elasticsearch-head # 给容器取一个别名
-it # i: 以交互模式运行容器,通常与 -t 同时使用;-t: 为容器重新分配一个伪输入终端,通常与 -i 同时使用;
-p 9100:9100 mobz/elasticsearch-head:5 # 暴露宿主机上的 9100 端口映射到容器的 9100 端口上

访问 http://localhost:9100 可见如下图就成功了:
在这里插入图片描述
elasticsearch-head 数据浏览无显示解决办法点击此处

安装Kibana

这个 Kibana 版本也是要和 elasticsearch 版本对应,从Docker Hub拉取elasticsearch-head:

test-MBP:~ test$ docker pull kibana:7.8.0
7.8.0: Pulling from library/kibana
524b0c1e57f8: Already exists 
6c3c85c9f549: Pull complete 
75826be8d25e: Pull complete 
f4951867bd56: Pull complete 
e0af11a7b96b: Pull complete 
1f81b8aaeaf3: Pull complete 
1c52e407927e: Pull complete 
6ca195712ee9: Pull complete 
94650bdbb5bf: Pull complete 
c978c1a82f00: Pull complete 
50fe1f68e816: Pull complete 
Digest: sha256:326ac27cbc363e515e1b660d3117bbad3c5cd140db358ade251195c094db6fda
Status: Downloaded newer image for kibana:7.8.0
docker.io/library/kibana:7.8.0
test-MBP:~ test$ docker images
REPOSITORY                TAG       IMAGE ID       CREATED         SIZE
kibana                    7.8.0     df0a0da46dd1   17 months ago   1.29GB
elasticsearch             7.8.0     121454ddad72   17 months ago   810MB
mobz/elasticsearch-head   5         b19a5c98e43b   4 years ago     824MB
test-MBP:~ test$ 

在宿主机上创建存储kibana配置文件作为数据卷持久化:

test-MBP:~ test$ cd /Users/test/Documents/Development-Configuration
test-MBP:Development-Configuration test$ sudo mkdir -p mykibanadata
Password:
test-MBP:Development-Configuration test$ sudo chmod 777 mykibanadata
test-MBP:Development-Configuration test$ sudo echo "server.host: 0.0.0.0" >> /Users/leiliang/Documents/Development-Configuration/mykibanadata/config/kibana.yml
test-MBP:Development-Configuration test$ sudo echo "elasticsearch.hosts: http://192.168.124.2:9200" >> /Users/test/Documents/Development-Configuration/mykibanadata/kibana.yml
test-MBP:Development-Configuration test$ cat /Users/test/Documents/Development-Configuration/mykibanadata/config/kibana.yml
server.host: 0.0.0.0
elasticsearch.hosts: http://192.168.124.2:9200
test-MBP:Development-Configuration test$ 
----------------------------------------------
命令说明:
sudo mkdir -p /Users/test/Documents/Development-Configuration/mykibanadata    # 创建挂载配置目录
sudo chmod 777 /Users/test/Documents/Development-Configuration/mykibanadata   # 赋值读写执行权限
sudo echo "server.host: 0.0.0.0" >> /Users/test/Documents/Development-Configuration/mykibanadata/config/kibana.yml  # kibana.yml存在就向该文件写入内容,不存在就创建该文件并写入内容
sudo echo "elasticsearch.hosts: http://0.0.0.0:9200" >> /Users/test/Documents/Development-Configuration/mykibanadata/config/kibana.yml  # 192.168.124.2 表示宿主机elasticsearch的容器ip跟端口

创建kibana容器并运行容器:

test-MBP:~ test$ docker images
REPOSITORY                TAG       IMAGE ID       CREATED         SIZE
kibana                    7.8.0     df0a0da46dd1   17 months ago   1.29GB
elasticsearch             7.8.0  
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值