Elasticsearch高性能优化实践

ES 性能调优

ES 的默认配置,是综合了数据可靠性、写入速度、搜索实时性等因素。实际使用时,我们需要根据公司要求,进行偏向性的优化。

一、写优化

假设我们的应用场景要求是,每秒 300 万的写入速度,每条 500 字节左右。

针对这种对于搜索性能要求不高,但是对写入要求较高的场景,我们需要尽可能的选择恰当写优化策略。

综合来说,可以考虑以下几个方面来提升写索引的性能:

  • 加大 Translog Flush ,目的是降低 Iops、Writeblock。
  • 增加 Index Refresh 间隔,目的是减少 Segment Merge 的次数。
  • 调整 Bulk 线程池和队列。
  • 优化节点间的任务分布。
  • 优化 Lucene 层的索引建立,目的是降低 CPU 及 IO。

1、批量提交

ES 提供了 Bulk API 支持批量操作,当我们有大量的写任务时,可以使用 Bulk 来进行批量写入。

每次提交的数据量为多少时,能达到最优的性能,主要受到文件大小、网络情况、数据类型、集群状态等因素影响。 

通用的策略如下:Bulk 默认设置批量提交的数据量不能超过 100M。数据条数一般是根据文档的大小和服务器性能而定的,但是单次批处理的数据大小应从 5MB~15MB 逐渐增加,当性能没有提升时,把这个数据量作为最大值。

2、优化存储设备

ES 是一种密集使用磁盘的应用,在段合并的时候会频繁操作磁盘,所以对磁盘要求较高,当磁盘速度提升之后,集群的整体性能会大幅度提高。

磁盘的选择,提供以下几点建议:

  • 使用固态硬盘(Solid State Disk)替代机械硬盘。SSD 与机械磁盘相比,具有高效的读写速度和稳定性。
  • 使用 RAID 0。RAID 0 条带化存储,可以提升磁盘读写效率。
  • 在 ES 的服务器上挂载多块硬盘。使用多块硬盘同时进行读写操作提升效率,在配置文件 ES 中设置多个存储路径,如下所示:
path.data:/path/to/data1,/path/to/data2。

避免使用 NFS(Network File System)等远程存储设备,网络的延迟对性能的影响是很大的。

3、合理使用合并

Lucene 以段的形式存储数据。当有新的数据写入索引时,Lucene 就会自动创建一个新的段。

随着数据量的变化,段的数量会越来越多,消耗的多文件句柄数及 CPU 就越多,查询效率就会下降。

由于 Lucene 段合并的计算量庞大,会消耗大量的 I/O,所以 ES 默认采用较保守的策略,让后台定期进行段合并,如下所述:

  • 索引写入效率下降:当段合并的速度落后于索引写入的速度时,ES 会把索引的线程数量减少到 1。这样可以避免出现堆积的段数量爆发,同时在日志中打印出“now throttling indexing”INFO 级别的“警告”信息。
  • 提升段合并速度:ES 默认对段合并的速度是 20m/s,如果使用了 SSD,我们可以通过以下的命令将这个合并的速度增加到 100m/s。
PUT /_cluster/settings
{
    "persistent" : {
        "indices.store.throttle.max_bytes_per_sec" : "100mb"
    }
}

4、减少Refresh的次数

Lucene 在新增数据时,采用了延迟写入的策略,默认情况下索引的 refresh_interval 为 1 秒。

Lucene 将待写入的数据先写到内存中,超过 1 秒(默认)时就会触发一次 Refresh,然后 Refresh 会把内存中的的数据刷新到操作系统的文件缓存系统中。

如果我们对搜索的实效性要求不高,可以将 Refresh 周期延长,例如 30 秒。

这样还可以有效地减少段刷新次数,但这同时意味着需要消耗更多的Heap内存。

如下所示:

index.refresh_interval:30s

5、加大Flush设置

Flush 的主要目的是把文件缓存系统中的段持久化到硬盘,当 Translog 的数据量达到 512MB 或者 30 分钟时,会触发一次 Flush。

index.translog.flush_threshold_size 参数的默认值是 512MB,我们进行修改。

增加参数值意味着文件缓存系统中可能需要存储更多的数据,所以我们需要为操作系统的文件缓存系统留下足够的空间。

6、减少副本的数量

ES 为了保证集群的可用性,提供了 Replicas(副本)支持,然而每个副本也会执行分析、索引及可能的合并过程,所以 Replicas 的数量会严重影响写索引的效率。

当写索引时,需要把写入的数据都同步到副本节点,副本节点越多,写索引的效率就越慢。

如果我们需要大批量进行写入操作,可以先禁止 Replica 复制,设置 index.number_of_replicas: 0 关闭副本。在写入完成后,Replica 修改回正常的状态。

二、线程池设置

每个Elasticsearch节点内部都维护着多个线程池,如index、search、get、bulk等,用户可以修改线程池的类型和大小,线程池默认大小跟CPU逻辑一致。

1、查看当前线程组状态

curl -XGET 'http://localhost:9200/_nodes/stats?pretty'

----

"thread_pool" : {
    "bulk" : {
      "threads" : 32,
      "queue" : 0,
      "active" : 0,
      "rejected" : 0,
      "largest" : 32,
      "completed" : 659997
    },
"index" : {
      "threads" : 2,
      "queue" : 0,
      "active" : 0,
      "rejected" : 0,
      "largest" : 2,
      "completed" : 2
    }

上面截取了部分线程池的配置,其中,最需要关注的是rejected。当某个线程池active==threads时,表示所有线程都在忙,那么后续新的请求就会进入queue中,即queue>0,一旦queue大小超出限制,如bulk的queue默认50,那么elasticsearch进程将拒绝请求(碰到bulk HTTP状态码429),相应的拒绝次数就会累加到rejected中。

解决方法:

  • 记录失败的请求并重发
  • 减少并发写的进程个数,同时加大每次bulk请求的size

2、核心线程池

index:此线程池用于索引和删除操作。它的类型默认为fixed,size默认为可用处理器的数量,队列的size默认为300。
search:此线程池用于搜索和计数请求。它的类型默认为fixed,size默认为可用处理器的数量乘以3,队列的size默认为1000。
suggest:此线程池用于建议器请求。它的类型默认为fixed,size默认为可用处理器的数量,队列的size默认为1000。
get:此线程池用于实时的GET请求。它的类型默认为fixed,size默认为可用处理器的数量,队列的size默认为1000。
bulk:此线程池用于批量操作。它的类型默认为fixed,size默认为可用处理器的数量,队列的size默认为50。
percolate:此线程池用于预匹配器操作。它的类型默认为fixed,size默认为可用处理器的数量,队列的size默认为1000。

3、线程池类型

a、cache

无限制的线程池,为每个请求创建一个线程。

b、fixed

有着固定大小的线程池,大小由size属性指定,允许你指定一个队列(使用queue_size属性指定)用来保存请求,直到有一个空闲的线程来执行请求。如果Elasticsearch无法把请求放到队列中(队列满了),该请求将被拒绝

4、修改线程池配置

配置文件elasticsearch.yml

threadpool.index.type: fixed
threadpool.index.size: 100
threadpool.index.queue_size: 500

Rest API

curl -XPUT 'localhost:9200/_cluster/settings' -d '{
    "transient": {
        "threadpool.index.type": "fixed",
        "threadpool.index.size": 100,
        "threadpool.index.queue_size": 500
    }
}'

5、bulk异常排查

使用es bulk api时报错如下:

EsRejectedExcutionException[rejected execution(queue capacity 50) on.......]

这个错误明显是默认大小为50的队列(queue)处理不过来了,解决方法是增大bulk队列的长度。

threadpool.bulk.queue_size: 1000

三、读优化

1、避免大结果集和深翻

集群中的查询流程,例如,要查询从 from 开始的 size 条数据,则需要在每个分片中查询打分排名在前面的 from+size 条数据。

协同节点将收集到的n×(from+size)条数据聚合,再进行一次排序,然后从 from+size 开始返回 size 条数据。

当 from、size 或者 n 中有一个值很大的时候,需要参加排序的数量也会增长,这样的查询会消耗很多 CPU 资源,从而导致效率的降低。

为了提升查询效率,ES 提供了 Scroll 和 Scroll-Scan 这两种查询模式。

Scroll:是为检索大量的结果而设计的。例如,我们需要查询 1~100 页的数据,每页 100 条数据。

  • 如果使用 Search 查询:每次都需要在每个分片上查询得分最高的 from+100 条数据,然后协同节点把收集到的 n×(from+100)条数据聚合起来再进行一次排序。每次返回 from+1 开始的 100 条数据,并且要重复执行 100 次。
  • 如果使用 Scroll 查询:在各个分片上查询 10000 条数据,协同节点聚合 n×10000 条数据进行合并、排序,并将排名前 10000 的结果快照起来。这样做的好处是减少了查询和排序的次数。

Scroll 初始查询的命令是:

$ vim scroll
$ cat scroll
{
    "query": {
        "match": {
            "name": "fanchael"
        }
    },
    "size":20
}
$ curl -s -H "Content-Type: application/json; charset=UTF-8" -XGET localhost:9200/chandler/test/_search?scroll=2m --data-binary @scroll; echo
{"_scroll_id":"DnF1ZXJ5VGhlbkZldGNoBQAAAAAAAAAGFlB6Y3QtNk9oUmdpc09Tb21rX2NXQXcAAAAAAAAABxZQemN0LTZPaFJnaXNPU29ta19jV0F3AAAAAAAAAAgWUHpjdC02T2hSZ2lzT1NvbWtfY1dBdwAAAAAAAAAJFlB6Y3QtNk9oUmdpc09Tb21rX2NXQXcAAAAAAAAAChZQemN0LTZPaFJnaXNPU29ta19jV0F3","took":14,"timed_out":false,"_shards":{"total":5,"successful":5,"skipped":0,"failed":0},"hits":{"total":1,"max_score":0.8630463,"hits":[{"_index":"chandler","_type":"test","_id":"1","_score":0.8630463,"_source":{ "name" : "fanchael","age": "18" }}]}}

以上查询语句的含义是,在 chandler 索引的 test type 里查询字段 name 包含“fanchael”的数据。

scroll=2m 表示下次请求的时间不能超过 2 分钟,size 表示这次和后续的每次请求一次返回的数据条数。

在这次查询的结果中除了返回了查询到的结果,还返回了一个 scroll_id,可以把它作为下次请求的参数。

再次请求的命令,如下所示:

// TODO

因为这次并没有到分片里查询数据,而是直接在生成的快照里面以游标的形式获取数据。

所以这次查询并没有包含 index 和 type,也没有查询条件:

  • "scroll": "2m":指本次请求的时间不能超过 2 分钟。 

  • scroll_id:是上次查询时返回的 scroll_id。

Scroll-Scan:Scroll 是先做一次初始化搜索把所有符合搜索条件的结果缓存起来生成一个快照,然后持续地、批量地从快照里拉取数据直到没有数据剩下。

而这时对索引数据的插入、删除、更新都不会影响遍历结果,因此 Scroll 并不适合用来做实时搜索。

其思路和使用方式与 Scroll 非常相似,但是 Scroll-Scan 关闭了 Scroll 中最耗时的文本相似度计算和排序,使得性能更加高效。

为了使用 Scroll-Scan,需要执行一个初始化搜索请求,将 search_type 设置成 Scan,告诉 ES 集群不需要文本相似计算和排序,只是按照数据在索引中顺序返回结果集:

$ vi scroll
$ cat scroll
{
    "query": {
        "match": {
            "name": "fanchael"
        }
    },
    "size":20,
    "sort": [
      "_doc"
    ]
}
$ curl -H "Content-Type: application/json; charset=UTF-8" -XGET 'localhost:9200/chandler/test/_search?scroll=2m&pretty=true' --data-binary @scroll
{
  "_scroll_id" : "DnF1ZXJ5VGhlbkZldGNoBQAAAAAAAABWFlB6Y3QtNk9oUmdpc09Tb21rX2NXQXcAAAAAAAAAVxZQemN0LTZPaFJnaXNPU29ta19jV0F3AAAAAAAAAFgWUHpjdC02T2hSZ2lzT1NvbWtfY1dBdwAAAAAAAABZFlB6Y3QtNk9oUmdpc09Tb21rX2NXQXcAAAAAAAAAWhZQemN0LTZPaFJnaXNPU29ta19jV0F3",
  "took" : 3,
  "timed_out" : false,
  "_shards" : {
    "total" : 5,
    "successful" : 5,
    "skipped" : 0,
    "failed" : 0
  },
  "hits" : {
    "total" : 1,
    "max_score" : null,
    "hits" : [
      {
        "_index" : "chandler",
        "_type" : "test",
        "_id" : "1",
        "_score" : null,
        "_source" : {
          "name" : "fanchael",
          "age" : "18"
        },
        "sort" : [
          0
        ]
      }
    ]
  }
}

注意:Elasticsearch 2.1.0 版本之后移除了 search_type=scan,使用 "sort": [ "_doc"] 进行代替。

 

Scroll 和 Scroll-Scan 有一些差别,如下所示:

  • Scroll-Scan不进行文本相似度计算,不排序,按照索引中的数据顺序返回。

  • Scroll-Scan 不支持聚合操作。

  • Scroll-Scan 的参数 Size 代表着每个分片上的请求的结果数量,每次返回 n×size 条数据。而 Scroll 每次返回 size 条数据。

2、选择合适的路由

ES 中所谓的路由和 IP 网络不同,是一个类似于 Tag 的东西。在创建文档的时候,可以通过字段为文档增加一个路由属性的 Tag。在多分片的 ES 集群中,对搜索的查询大致分为如下两种。

ES 内在机制决定了拥有相同路由属性的文档,一定会被分配到同一个分片上,无论是主分片还是副本。

a、查询时可以根据 Routing 信息,直接定位到目标分片,避免查询所有的分片,再经过协调节点二次排序。

如图 1 所示:

图一

b、如果在查询条件中不包含 Routing,在查询时就遍历所有分片,整个查询主要分为 Scatter、Gather 两个过程:

  • Scatter(分发):请求到达协调节点之后,协调节点将查询请求分发给每个分片。

  • Gather(聚合):协调点在每个分片上完成搜索,再将搜索到的结果集进行排序,将结果数据返回给用户。

如图 2 所示:

通过对比上述两种查询流程,我们不难发现,使用 Routing 信息查找的效率很高,避免了多余的查询。

所以我们在设计 Elasticsearch Mapping 时要合理地利用 Routing 信息,来提升查询的效率。

例如,在大型的本地分类网站中,可以将城市 ID 作为 Routing 的条件,让同一个城市的数据落在相同的分片中。

默认的公式如下:

shard = hash(routing)%number_of_primary_shards

不过需要注意的是,根据城市 ID 进行分片时,也会容易出现分片不均匀的情况。

例如,大型城市的数据过多,而小城市的数据太少,导致分片之间的数据量差异很大。

这时就可以进行必要的调整,比如把多个小城市的数据合并到一个分片上,把大城市的数据按区域进行拆分到不同分配。

3、SearchType

在 Scatter、Gather 的过程中,节点间的数据传输和打分(SearchType),可以根据不同的场景选择。

如下所示:

  • QUERY_THEN_FETCH:ES 默认的搜索方式。第一步,先向所有的分片发请求,各分片只返回文档的相似度得分和文档的 ID,然后协调节点按照各分片返回的分数进行重新排序和排名,再取出需要返回给客户端的 Size 个文档 ID。

    第 2 步,在相关的分片中取出文档的详细信息并返回给用户。

  • QUERY_AND_FETCH:协调节点向所有分片发送查询请求,各分片将文档的相似度得分和文档的详细信息一起返回。

    然后,协调节点进行重新排序,再取出需要返回给客户端的数据,将其返回给客户端。由于只需要在分片中查询一次,所以性能是最好的。

  • DFS_QUERY_THEN_FETCH:与 QUERY_THEN_FETCH 类似,但它包含一个额外的阶段:在初始查询中执行全局的词频计算,以使得更精确地打分,从而让查询结果更相关。

    QUERY_THEN_FETCH 使用的是分片内部的词频信息,而 DFS_QUERY_THEN_FETCH 使用访问公共的词频信息,所以相比 QUERY_THEN_FETCH 性能更低。

  • DFS_QUERY_AND_FETCH:与 QUERY_AND_FETCH 类似,不过使用的是全局的词频。

4、定期删除

由于在 Lucene 中段具有不变性,每次进行删除操作后不会立即从硬盘中进行实际的删除,而是产生一个 .del 文件记录删除动作。

随着删除操作的增长,.del 文件会越来也多。当我们进行查询操作的时候,被删除的数据还会参与检索中,然后根据 .del 文件进行过滤。.del 文件越多,查询过滤过程越长,进而影响查询的效率。

当机器空闲时,我们可以通过如下命令删除文件,来提升查询的效率:

$ curl -XPOST localhost:9200/chandler/_forcemerge?only_expunge_deletes=true
{"_shards":{"total":10,"successful":5,"failed":0}}

定期对不再更新的索引做 optimize (ES 2.0 以后更改为 Force Merge API)。

这 Optimze 的实质是对 Segment File 强制做合并,可以节省大量的 Segment Memory。

三、堆大小的设置

ES 默认安装后设置的内存是 1GB,对于任何一个现实业务来说,这个设置都太小了。

如果是通过解压安装的 ES,则在 ES 安装文件中包含一个 jvm.option 文件,添加如下命令来设置 ES 的堆大小:

-Xms10g
-Xmx10g

Xms 表示堆的初始大小,Xmx 表示可分配的最大内存,都是 10GB。

确保 Xmx 和 Xms 的大小是相同的,其目的是为了能够在 Java 垃圾回收机制清理完堆区后不需要重新分隔计算堆区的大小而浪费资源,可以减轻伸缩堆大小带来的压力。 

也可以通过设置环境变量的方式设置堆的大小。服务进程在启动时候会读取这个变量,并相应的设置堆的大小。比如:

export ES_HEAP_SIZE=10g

也可以通过命令行参数的形式,在程序启动的时候把内存大小传递给 ES,如下所示:

./bin/elasticsearch -Xmx10g -Xms10g

这种设置方式是一次性的,在每次启动 ES 时都需要添加。

 

 ES 堆内存的分配需要满足以下两个原则:

  • 不要超过物理内存的 50%:Lucene 的设计目的是把底层 OS 里的数据缓存到内存中。

    Lucene 的段是分别存储到单个文件中的,这些文件都是不会变化的,所以很利于缓存,同时操作系统也会把这些段文件缓存起来,以便更快的访问。

    如果我们设置的堆内存过大,Lucene 可用的内存将会减少,就会严重影响降低 Lucene 的全文本查询性能。

  • 堆内存的大小最好不要超过 32GB:在 Java 中,所有对象都分配在堆上,然后有一个 Klass Pointer 指针指向它的类元数据。

    这个指针在 64 位的操作系统上为 64 位,64 位的操作系统可以使用更多的内存(2^64)。在 32 位的系统上为 32 位,32 位的操作系统的最大寻址空间为 4GB(2^32)。

    但是 64 位的指针意味着更大的浪费,因为你的指针本身大了。浪费内存不算,更糟糕的是,更大的指针在主内存和缓存器(例如 LLC, L1等)之间移动数据的时候,会占用更多的带宽。

Java 使用内存指针压缩(Compressed Oops)技术来解决这个问题。它的指针不再表示对象在内存中的精确位置,而是表示偏移量。

这意味着 32 位的指针可以引用 4GB 个 Byte,而不是 4GB 个 bit。也就是说,当堆内存为 32GB 的物理内存时,也可以用 32 位的指针表示。

不过,在越过那个神奇的边界 32GB 时,指针就会变为普通对象的指针,每个对象的指针都变长了,就会浪费更多的内存,降低了 CPU 的性能,还要让 GC 应对更大的内存。

事实上,当内存到达 40~40GB 时,有效的内存才相当于内存对象指针压缩技术时的 32GB 内存。

所以即便你有足够的内存,也尽量不要超过 32G,比如我们可以设置为 31GB:

-Xms31g
-Xmx31g

32GB 是 ES 一个内存设置限制,那如果你的机器有很大的内存怎么办呢?现在的机器内存普遍增长,甚至可以看到有 300-500GB 内存的机器。

这时我们需要根据业务场景,进行恰当内存的分配:

  • 业务场景是以全文检索为主:依然可以给 ES 分配小于 32GB 的堆内存,剩下的交给 Lucene 用作操作系统的文件系统缓存,所有的 Segment 都缓存起来,会加快全文检索。
  • 业务场景中有很多的排序和聚合:我们可以考虑一台机器上创建两个或者更多 ES 节点,而不要部署一个使用 32+GB 内存的节点。

    仍然要坚持 50% 原则,假设你有个机器有 128G 内存,你可以创建两个 Node,使用 32G 内存。也就是说 64G 内存给 ES 的堆内存,剩下的 64G 给 Lucene。

四、服务器配置的选择

Swapping 是性能的坟墓:在选择 ES 服务器时,要尽可能地选择与当前应用场景相匹配的服务器。

如果服务器配置很低,则意味着需要更多的节点,节点数量的增加会导致集群管理的成本大幅度提高。

如果服务器配置很高,而在单机上运行多个节点时,也会增加逻辑的复杂度。

在计算机中运行的程序均需在内存执行,若内存消耗殆尽将导致程序无法进行。为了解决这个问题,操作系统使用一种叫作虚拟内存的技术。

当内存耗尽时,操作系统就会自动把内存中暂时不使用的数据交换到硬盘中,需要使用的时候再从硬盘交换到内存。

如果内存交换到磁盘上需要 10 毫秒,从磁盘交换到内存需要 20 毫秒,那么多的操作时延累加起来,将导致几何级增长。

不难看出 Swapping 对于性能是多么可怕。所以为了使 ES 有更好等性能,强烈建议关闭 Swap。

关闭 Swap 的方式如下:

1、暂时禁用。如果我们想要在 Linux 服务器上暂时关闭,可以执行如下命令,但在服务器重启后失效:

sudo swapoff -a

2、永久性关闭。我们可以修改 /etc/sysctl.conf(不同的操作系统路径有可能不同),增加如下参数:

vm.swappiness = 1      //0-100,则表示越倾向于使用虚拟内存。

注意:Swappiness 设置为 1 比设置为 0 要好,因为在一些内核版本,Swappness=0 会引发 OOM(内存溢出)。

Swappiness 默认值为 60,当设置为 0 时,在某些操作系统中有可能会触发系统级的 OOM-killer,例如在 Linux 内核的内存不足时,为了防止系统的崩溃,会自动强制 Kill 一个“bad”进程。

3、在 ES 中设置。如果上面的方法都不能做到,你需要打开配置文件中的 mlockall 开关,它的作用就是运行 JVM 锁住内存,禁止 OS 交换出去。

在 elasticsearch.yml 配置如下:

bootstrap.mlockall: true

五、硬盘的选择和设置

如果条件允许,则请尽可能地使用 SSD,它的读写性能将远远超出任何旋转介质的硬盘(如机械硬盘、磁带等)。基于 SSD 的 ES 集群节点对于查询和索引性能都有提升。

另外无论是使用固态硬盘还是使用机械硬盘,我们都建议将磁盘的阵列模式设置为 RAID 0,以此来提升磁盘的写性能。

六、接入方式

ES 提供了 Transport Client(传输客户端)和 Node Client(节点客户端)的接入方式,这两种方式各有利弊,分别对应不同的应用场景。

1、Transport Client

作为一个集群和应用程序之间的通信层,和集群是安全解耦的。

由于与集群解耦,所以在连接集群和销毁连接时更加高效,适合大量的客户端连接。

2、Node Client

把应用程序当作一个集群中的 Client 节点(非 Data 和 Master 节点)。

由于它是集群的一个内部节点,意味着它可以感知整个集群的状态、所有节点的分布情况、分片的分布状况等。

由于 Node Client 是集群的一部分,所以在接入和退出集群时进行比较复杂操作,并且还会影响整个集群的状态,所以 Node Client 更适合少量客户端,能够提供更好的执行效率。

七、角色隔离与脑裂

1、角色隔离

ES 集群中的数据节点负责对数据进行增、删、改、查和聚合等操作,所以对 CPU、内存和 I/O 的消耗很大。

在搭建 ES 集群时,我们应该对 ES 集群中的节点进行角色划分和隔离。

候选主节点:

node.master=true
node.data=false

数据节点:

node.master: false
node.data: true

最后形成如图 3 所示的逻辑划分:


默认情况下,每个节点都有成为主节点的资格,也会存储数据,还会处理客户端的请求。

master和data两个属性可以有四种组合

第一种:node.master: true,node.data: true。

这种组合表示这个节点即有成为主节点的资格,又存储数据。

这个时候如果某个节点被选举成为了真正的主节点,那么他还要存储数据,这样对于这个节点的压力就比较大了。

elasticsearch默认每个节点都是这样的配置,在测试环境下这样做没问题。实际工作中建议不要这样设置,这样相当于主节点和数据节点的角色混合到一块了。

第二种:node.master: false,node.data: true。data(数据)节点

这种组合表示这个节点没有成为主节点的资格,也就不参与选举,只会存储数据。

这个节点我们称为data(数据)节点。在集群中需要单独设置几个这样的节点负责存储数据。后期提供存储和查询服务。

第三种:node.master: true,node.data: false。master节点

这种组合表示这个节点不会存储数据,有成为主节点的资格,可以参与选举,有可能成为真正的主节点。

第四种:node.master: false,node.data: false。client节点

这种组合表示这个节点即不会成为主节点,也不会存储数据,这个节点的意义是作为一个client(客户端)节点,主要是针对海量请求的时候可以进行负载均衡。负责任务分发和结果汇聚,分担数据节点压力。

生产集群中我们可以对这些节点的职责进行划分

  • 建议集群中设置3台以上的节点作为master节点【node.master: true node.data: false】,这些节点只负责成为主节点,维护整个集群的状态。
  • 再根据数据量设置一批data节点【node.master: false node.data: true】,这些节点只负责存储数据,后期提供建立索引和查询索引的服务,这样的话如果用户请求比较频繁,这些节点的压力也会比较大。
  • 在集群中建议再设置一批client节点【node.master: false node.data: false】,这些节点只负责处理用户请求,实现请求转发,负载均衡等功能。
  • master节点:普通服务器即可(CPU 内存 消耗一般),内存可以相对小一些,但是机器一定要稳定,最好是独占的机器。
  • data节点:主要消耗磁盘、内存,大内存,最好是独占的机器。
  • client节点:普通服务器即可(如果要进行分组聚合操作的话,建议这个节点内存也分配多一点)

2、避免脑裂

网络异常可能会导致集群中节点划分出多个区域,区域发现没有 Master 节点的时候,会选举出了自己区域内 Maste 节点 r,导致一个集群被分裂为多个集群,使集群之间的数据无法同步,我们称这种现象为脑裂。

为了防止脑裂,我们需要在 Master 节点的配置文件中添加如下参数:

discovery.zen.minimum_master_nodes=(master_eligible_nodes/2)+1        //默认值为1

其中 master_eligible_nodes 为 Master 集群中的节点数。这样做可以避免脑裂的现象都出现,最大限度地提升集群的高可用性。

只要不少于 discovery.zen.minimum_master_nodes 个候选节点存活,选举工作就可以顺利进行。

 

ES实战

一、ES 配置说明

在 ES 安装目录下的 Conf 文件夹中包含了一个重要的配置文件:elasticsearch.yaml。

ES 的配置信息有很多种,大部分配置都可以通过 elasticsearch.yaml 和接口的方式进行。

下面我们列出一些比较重要的配置信息:

  • cluster.name:elasticsearch:配置 ES 的集群名称,默认值是 ES,建议改成与所存数据相关的名称,ES 会自动发现在同一网段下的集群名称相同的节点。

  • node.nam: "node1":集群中的节点名,在同一个集群中不能重复。节点的名称一旦设置,就不能再改变了。当然,也可以设置成服务器的主机名称,例如 node.name:${HOSTNAME}。

  • noed.master:true:指定该节点是否有资格被选举成为 Master 节点,默认是 True,如果被设置为 True,则只是有资格成为 Master 节点,具体能否成为 Master 节点,需要通过选举产生。

  • node.data:true:指定该节点是否存储索引数据,默认为 True。数据的增、删、改、查都是在 Data 节点完成的。

  • index.number_of_shards:5:设置都索引分片个数,默认是 5 片。也可以在创建索引时设置该值,具体设置为多大都值要根据数据量的大小来定。如果数据量不大,则设置成 1 时效率最高。

  • index.number_of_replicas:1:设置默认的索引副本个数,默认为 1 个。副本数越多,集群的可用性越好,但是写索引时需要同步的数据越多。

  • path.conf:/path/to/conf:设置配置文件的存储路径,默认是 ES 目录下的 Conf 文件夹。建议使用默认值。

  • path.data:/path/to/data1,/path/to/data2:设置索引数据多存储路径,默认是 ES 根目录下的 Data 文件夹。切记不要使用默认值,因为若 ES 进行了升级,则有可能数据全部丢失。

    可以用半角逗号隔开设置的多个存储路径,在多硬盘的服务器上设置多个存储路径是很有必要的。

  • path.logs:/path/to/logs:设置日志文件的存储路径,默认是 ES 根目录下的 Logs,建议修改到其他地方。

  • path.plugins:/path/to/plugins:设置第三方插件的存放路径,默认是 ES 根目录下的 Plugins 文件夹。

  • bootstrap.mlockall:true:设置为 True 时可锁住内存。因为当 JVM 开始 Swap 时,ES 的效率会降低,所以要保证它不 Swap。

  • network.bind_host:192.168.0.1:设置本节点绑定的 IP 地址,IP 地址类型是 IPv4 或 IPv6,默认为 0.0.0.0。

  • network.publish_host:192.168.0.1:设置其他节点和该节点交互的 IP 地址,如果不设置,则会进行自我判断。

  • network.host:192.168.0.1:用于同时设置 bind_host 和 publish_host 这两个参数。

  • http.port:9200:设置对外服务的 HTTP 端口,默认为 9200。ES 的节点需要配置两个端口号,一个对外提供服务的端口号,一个是集群内部使用的端口号。

    http.port 设置的是对外提供服务的端口号。注意,如果在一个服务器上配置多个节点,则切记对端口号进行区分。

  • transport.tcp.port:9300:设置集群内部的节点间交互的 TCP 端口,默认是 9300。注意,如果在一个服务器配置多个节点,则切记对端口号进行区分。

  • transport.tcp.compress:true:设置在节点间传输数据时是否压缩,默认为 False,不压缩。

  • discovery.zen.minimum_master_nodes:1:设置在选举 Master 节点时需要参与的最少的候选主节点数,默认为 1。如果使用默认值,则当网络不稳定时有可能会出现脑裂。

    合理的数值为(master_eligible_nodes/2)+1,其中 master_eligible_nodes 表示集群中的候选主节点数。

  • discovery.zen.ping.timeout:3s:设置在集群中自动发现其他节点时 Ping 连接的超时时间,默认为 3 秒。

    在较差的网络环境下需要设置得大一点,防止因误判该节点的存活状态而导致分片的转移。

二、常用接口

cerebro客户端工具提供了对于ElasticSearch更加友好的可视化操作。

1、索引类接口

通过下面的接口创建一个索引名称为 indexname 且包含 3 个分片、1 个副本的索引:

PUT http://localhost:9200/indexname?pretty
content-type →application/json; charset=UTF-8
{
    "settings":{
        "number_of_shards" : 3,
        "number_of_replicas" : 1
    }
}

通过下面都接口删除索引:

DELETE http://localhost:9200/indexname

通过该接口就可以删除索引名称为 indexname 的索引,通过下面的接口可以删除多个索引:

DELETE http://localhost:9200/indexname1,indexname2
DELETE http://localhost:9200/indexname*

通过下面的接口可以删除集群下的全部索引:

DELETE http://localhost:9200/_all
DELETE http://localhost:9200/*

进行全部索引删除是很危险的,我们可以通过在配置文件中添加下面的配置信息,来关闭使用 _all 和使用通配符删除索引的接口,使用删除索引职能通过索引的全称进行。

action.destructive_requires_name: true

通过下面的接口获取索引的信息,其中,Pretty 参数用语格式化输出结构,以便更容易阅读:

GET http://localhost:9200/indexname?pretty

通过下面的接口关闭、打开索引:

POST http://localhost:9200/indexname/_close
POST http://localhost:9200/indexname/_open

2、Document 操作

安装 ES 和 Kibana 之后,进入 Kibana 操作页面,然后进去的 DevTools 执行下面操作:

三、接口应用

1、Search 接口

Search 是我们最常用的 API,ES 给我提供了丰富的查询条件,比如模糊匹配 Match,字段判空 Exists,精准匹配 Term 和 Terms,范围匹配 Range:

GET /_search
{
  "query": { 
    "bool": { 
      "must": [     //must_not
        { "match": { "title":   "Search"        }}, 
        { "match": { "content": "Elasticsearch" }},
        {"exists":{"field":"字段名"}}   //判断字段是否为空
      ],
      "filter": [ 
        { "term":  { "status": "published" }},
        { "terms":  { "status": [0,1,2,3] }},//范围
        { "range": { "publish_date": { "gte": "2015-01-01" }}} //范围gte:大于等于;gt:大于;lte:小于等于;lt:小于
      ]
    }
  }
}

2、修改 Mapping

 

3、修改别名

如下给 Index 为 test_index 的数据绑定 Alias 为 test_alias:

POST /_aliases
{
  "actions": [
    {
      "add": {      //add,remove
        "index": "test_index",
        "alias": "test_alias"
      }
    }
  ]
}

4、定制返回内容

_source 元数据:就是说,我们在创建一个 Document 的时候,使用的那个放在 Request Body 中的 Json 串(所有的 Field),默认情况下,在 Get 的时候,会原封不动的给我们返回回来。

定制返回的结果,指定 _source 中,返回哪些 Field:

#语法:
GET /test_index/test_type/1?_source=test_field2
#返回
{
  "_index" : "test_index",
  "_type" : "test_type",
  "_id" : "1",
  "_version" : 3,
  "found" : true,
  "_source" : {
    "test_field2" : "test field2"
  }
}
#也可返回多个field使用都好分割
GET /test_index/test_type/1?_source=test_field2,test_field1

参考文档:https://www.cnblogs.com/technologykai/articles/10899582.html

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
为了满足广大Android开发爱好者与从业者的学习需求,我们精心整理并上传了一份全面而实用的Android项目资源包。这份资源包内容丰富,涵盖了从基础知识到实战应用的全方位内容,旨在为开发者们提供一个便捷、效的学习平台。 一、文件手册 资源包中的文件手册部分,详细记录了Android开发的核心知识点和常用技术。无论是初学者还是有一定经验的开发者,都能从中找到所需的学习资料。手册采用了简洁明了的排版方式,使得查阅更加方便快捷。同时,手册内容深入浅出,既适合新手入门,也能为老手提供有价值的参考。 二、项目实战与练习 为了让学习者能够将理论知识与实践相结合,我们特别准备了项目实战与练习部分。这部分内容包含了多个精心设计的Android项目案例,从需求分析、设计思路到实现过程,都有详细的讲解和代码示例。学习者可以通过实际操作,深入了解Android开发的整个流程,提升自己的实战能力。 此外,我们还提供了一系列练习题,旨在巩固所学知识,检验学习成果。这些练习题既有基础题,也有难度较的挑战题,适合不同层次的学习者进行练习。 三、Android开发工具集 在Android开发过程中,选择合适的工具能够大大提开发效率。因此,我们整理了常用的Android开发工具集,包括开发工具、测试工具、性能优化工具等。这些工具都是经过我们精心筛选和测试的,能够帮助开发者们更加效地进行Android开发工作。 总的来说,这份Android项目资源包是一份不可多得的学习资料,无论你是初学者还是有一定经验的开发者,都能从中受益匪浅。我们希望通过这份资源包,为广大Android开发爱好者与从业者提供一个更加便捷、效的学习平台,共同推动Android开发领域的发展。
整理大牛分享文档如下,一线开发架构,技术文档 网易蜂巢公有容器云架构之路 新浪微博redis优化历程 微博Cache架构设计实践 Go在大数据开发中的经验总结 基于Go构建滴滴核心业务平台的实践 京东分布式K-V存储设计与挑战 去哪网数据库架构发展历程 58速运数据库降压优化实践 云时代的数据库演变之路 阿里万亿级数据洪峰下的消息引擎 小米生态云应用引擎实践 去哪儿网基于Mesos Docker的Elasticsearch容器化私有云 滴滴统一资源调度平台建设实践 亚马逊云平台计算服务进化之路 京东云为企业提供智能化之路 中移苏研存储产品化之路 百度基于Druid的大数据采集即计算实践 蘑菇街大数据平台工作流调度系统 饿了么离线大数据平台实践 爱奇艺广告大数据实践 魅族Android多分支代码自动同步 闲鱼2亿用户架构实践 美团配送移动网关建设实战 京东图片系统演进 360云端图像技术的深度学习模型与应用 腾讯优图深度学习在图像审核的应用 上汽时代站在云时代的路口 大型企业云平台架构演进的实践之路 机器学习和未知样本检测 瓜子云的技术架构落地方案 分布式存储优化与离线混布弹性计算平台 360基础架构大容量redis存储方案--Pika 财付通交易核心演进之路 京东金融数据库多场景架构实践 摩拜开源技术的线上应用之路 AI领域的人机识别对抗 千亿美金的验证码攻防 苏宁潜行狙击--业务安全大数据融合 腾讯全民K歌黑产对抗之路 阿里面向未来的泛内容AI平台建设实践 vivo大规模机器学习实践 INTchain在大宗商品物流应用的架构探讨 微软亚洲研究院构建企业级区块链生态 VMWare使用Kubernetes部署超级账本Fabric 机器学习在推荐系统中的应用 阿里云开放搜索多租户实时计算架构的演进之路 QQ音乐的个性化探索 京东亿级流量海量数据搜索架构 C2C市场中推荐系统的挑战与机遇 阿里网络故障智能化治理 腾讯全用户态服务开发套件F-Stack 苏宁易购全站HTTPS实践之路 金山云H.265在视频直播场景下的应用演进 阿里窄带清,打造新优酷极致体验 腾讯IEGVR视频直播探索与创新 Go in TiDB 搜狗智能语音之路 滴滴智能交互 美好出行 人工智能助力新时代K12教育 阿里智能实验室语音识别技术回顾及应用 可定制开发的语音交互技术 基于容器的持续集成平台建设 阿⾥巴巴全球化技术架构 美团外卖自动化业务运维系统建设 技术前沿进展:系统自动化调优 基于Hybrid的移动应用混合开发模式架构演变 阿里移动端图像加载优化与增强 滴滴移动端基础架构的演进与探索 搜狗前端测试质量的度量 负载均衡利器 HAProxy功能剖析及部署案例 可用技术的实践分享 性能存储及文件系统 个性化推荐架构设计和实践搜狐视频 银行数据中心架构创新之路 互联网对传统企业应用架构 基于Kafka-Spark Streaming的数据处理系统及测试 交互式直播推流编码器的设计 Elasticsearch实时效聚合计算应用实践 腾讯Elasticsearch大规模实践 阿里云Elasticsearch架构解析与性能优化实践 Go在区块链的发展和演进 Aliyun ApasaDB Go 微服务架构 罗辑思维Go语言微服务改造实践 Golang打造下一代互联网-IPFS全解析等
### 回答1: elasticsearch是一个开源的分布式、可用性的搜索引擎和数据分析工具,被广泛用于互联网公司和企业中的数据存储与检索。它基于Lucene搜索引擎库,通过使用分布式搜索技术和复制机制来提供快速、可靠、强大的全文搜索和分析能力。 "狂神"来自于网络上对于一位充满热情和专业技术的人的称呼。在elasticsearch领域中,"elasticsearch狂神"指的是那些对elasticsearch有着深入了解和丰富经验,并能够将其灵活运用于实际场景的专家。 "狂神"通常是具有广泛知识和技能的人,他们能够为团队提供最佳实践和解决方案,并在使用elasticsearch时展现出卓越的技术能力。他们可能熟悉elasticsearch的各类细节和功能,包括索引和搜索机制、分布式集群、数据分析和可视化等。 "elasticsearch狂神"在实践中能够效地部署和管理elasticsearch集群,监控和优化搜索性能,并设计和构建复杂的搜索查询和聚合操作。他们可能了解常见的问题和挑战,并能够提供可靠的解决方案。 总之,"elasticsearch狂神"是在elasticsearch领域中具备专业知识和技能,并能够将其应用于实际项目中的专家。他们通过对elasticsearch的深入了解和研究,为团队提供可靠的搜索和数据分析解决方案。 ### 回答2: Elasticsearch 是一个开源的分布式搜索与分析引擎,被称为“狂神”是因为它在搜索和大数据领域的强大能力和效性。下面我将从三个方面介绍一下 Elasticsearch 的狂神特点。 首先,Elasticsearch 具备非常强大的搜索能力。它利用倒排索引的原理,能够快速地进行全文搜索和检索,而不仅仅局限于关键词的匹配。同时,Elasticsearch 还支持模糊搜索、拼写校正和近似搜索等级搜索功能,以及支持多种语言的全文搜索,使得用户可以更准确地找到所需信息。 其次,Elasticsearch 具备度可伸缩性和分布式特性。它采用集群的方式进行部署,可以轻松处理大规模数据。通过水平扩展和数据分片,Elasticsearch 实现了分布式的数据存储和处理,能够处理海量数据并提供吞吐量的搜索和分析。这使得它不仅适用于小型项目和应用,也能够应对大型企业级应用的需求。 最后,Elasticsearch 还具有丰富的插件生态系统和开发者友好的 API。它支持各种与搜索和数据分析相关的插件,可以扩展其功能和应用场景。同时,Elasticsearch 提供了易于使用和友好的 RESTful API,使得开发者可以方便地与之交互和集成,进行数据的索引、搜索和分析。 总的来说,Elasticsearch 作为一款强大的开源搜索引擎,具备着狂神般的能力和性能。它的搜索能力强大、具备度可伸缩性和分布式特性,并且拥有丰富的插件生态系统和友好的开发者接口,使得它在搜索和大数据领域发挥着重要的作用,并备受开发者和企业的青睐。 ### 回答3: Elasticsearch是一个基于开源搜索引擎Lucene的分布式搜索和分析引擎。它由狂神创建并维护,被广泛用于各种类型的数据搜索、分析和可视化应用。 首先,Elasticsearch具有性能和扩展性。它可以处理大规模数据集,并在毫秒级别提供快速的搜索和分析结果。通过将数据分散存储在多个节点上,它可以水平扩展以满足不断增长的数据需求。 其次,Elasticsearch具有强大的全文搜索能力。它不仅可以处理关键字搜索,还能执行复杂的查询和过滤操作。它支持文本分析和标记化,可以处理多种语言和各种形式的数据。 此外,Elasticsearch具有灵活的数据模型。它使用索引(index)和类型(type)的结构来组织数据,并支持多种数据类型的存储和查询。通过使用映射(mapping)和分析器(analyzer),可以定义数据的结构和处理方式。 另外,Elasticsearch还提供了丰富的API和工具,方便开发人员和数据分析师使用。它支持RESTful API,使得与其他应用程序和工具的集成非常简单。此外,它还提供了Kibana等可视化工具,用于创建实时的仪表盘和报告。 总的来说,Elasticsearch由狂神创建并不断完善,是一个功能强大且易于使用的分布式搜索与分析引擎。它在大数据处理、日志分析、实时搜索和数据可视化等领域有广泛的应用,成为了许多企业和组织的首选解决方案。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值