ES精简-1

11 篇文章 0 订阅

1. ElasticSearch简介

1.1 什么是ElasticSearch

Elaticsearch, 简称为es, es是一个开源的高扩展的分布式全文检索引擎, 它可以近乎实时的存储、 检索数据;
本身扩展性很好, 可以扩展到上百台服务器, 处理PB级别的数据。
es也使用Java开发并使用Lucene作为其核心来实现所有索引和搜索的功能, 但是它的目的是通过简单的RESTful API来隐藏Lucene的复杂性, 从而让全文搜索变得简单。

1.2 ElasticSearch的使用案例

2013年初, GitHub抛弃了Solr, 采取ElasticSearch 来做PB级的搜索。 “GitHub使用ElasticSearch搜索20TB
的数据, 包括1 3亿文件和1 300亿行代码 ”
维基百科: 启动以elasticsearch为基础的核心搜索架构
SoundCloud: “SoundCloud使用ElasticSearch为1 .8亿用户提供即时而精准的音乐搜索服务”
百度: 百度目前广泛使用ElasticSearch作为文本数据分析, 采集百度所有服务器上的各类指标数据及用户自
定义数据, 通过对各种数据进行多维分析展示, 辅助定位分析实例异常或业务层面异常。 目前覆盖百度内部
20多个业务线( 包括casio、 云分析、 网盟、 预测、 文库、 直达号、 钱包、 风控等) , 单集群最大1 00台机
器, 200个ES节点, 每天导入30TB+数据
新浪使用ES 分析处理32亿条实时日志
阿里使用ES 构建挖财自己的日志采集和分析体系

1.3 ElasticSearch对比Solr

Solr 利用 Zookeeper 进行分布式管理, 而 Elasticsearch 自身带有分布式协调管理功能;
Solr 支持更多格式的数据, 而 Elasticsearch 仅支持json文件格式;
Solr 官方提供的功能更多, 而 Elasticsearch 本身更注重于核心功能, 高级功能多有第三方插件提供;
Solr 在传统的搜索应用中表现好于 Elasticsearch, 但在处理实时搜索应用时效率明显低于 Elasticsearch

2. ElasticSearch安装与启动

2.1 windows安装

2.1.1 ES基础安装

ElasticSearch的官方地址: https://www.elastic.co/products/elasticsearch
Window版的ElasticSearch的安装很简单, 类似Window版的Tomcat, 解压开即安装完毕

修改elasticsearch配置文件: config/elasticsearch.yml, 增加以下两句命令:

http.cors.enabled:  true
http.cors.allow‐origin:  "*"

此步为允许elasticsearch跨越访问, 如果不安装后面的elasticsearch-head是可以不修改, 直接启动。

点击ElasticSearch下的bin目录下的elasticsearch.bat启动,

访问:

http://localhost:9200;

得到如下结果–>

{
  "name" : "_wJlW_c",
  "cluster_name" : "elasticsearch",
  "cluster_uuid" : "R-uUvNQjRnmH8TzQ6bQrGw",
  "version" : {
    "number" : "5.5.2",
    "build_hash" : "b2f0c09",
    "build_date" : "2017-08-14T12:33:14.154Z",
    "build_snapshot" : false,
    "lucene_version" : "6.6.0"
  },
  "tagline" : "You Know, for Search"
}

注意: 9300是tcp通讯端口, 集群间和TCPClient都执行该端口, 9200是http协议的RESTful接口 。
通过浏览器访问ElasticSearch服务器, 看到如下返回的json信息, 代表服务启动成功:

注意: ElasticSearch是使用java开发的, 且本版本的es需要的jdk版本要是1.8以上, 所以安装ElasticSearch之前保
证JDK1.8+安装完毕, 并正确的配置好JDK环境变量, 否则启动ElasticSearch失败。

2.1.2 插件安装-Head

ElasticSearch不同于Solr自带图形化界面, 我们可以通过安装ElasticSearch的head插件, 完成图形化界面的效
果, 完成索引数据的查看。

安装插件的方式有两种, 在线安装和本地安装。

本文档采用本地安装方式进行head插件的安装。elasticsearch-5-*以上版本安装head需要安装node(elasticsearch-head是js开发的,需要运行在node上)和grunt.

  1. 下载head插件: https://github.com/mobz/elasticsearch-head
    链接地址:https://codeload.github.com/mobz/elasticsearch-head/zip/master

  2. 将elasticsearch-head-master压缩包解压到任意目录, 但是要和elasticsearch的安装目录区别开;

  3. 下载nodejs: https://nodejs.org/en/download/,下载window版本为exe,点击安装即可;

  4. 安装完毕, 可以通过cmd控制台输入: node -v 查看版本号;

C:\Users\admin>node -v
v8.9.4

  1. 将grunt安装为全局命令 , Grunt是基于Node.js的项目构建工具
    在cmd控制台中输入如下执行命令:
npm install -g grunt-cli

执行结果如下:

D:\javatools\elasticsearch-head-master>npm install -g grunt-cli
npm WARN notice [SECURITY] set-value has the following vulnerability: 1 high. Go
 here for more details: https://www.npmjs.com/advisories?search=set-value&versio
n=2.0.1 - Run `npm i npm@latest -g` to upgrade your npm version, and then `npm a
udit` to get more info.
npm WARN deprecated resolve-url@0.2.1: https://github.com/lydell/resolve-url#dep
recated
npm WARN deprecated urix@0.1.0: Please see https://github.com/lydell/urix#deprec
ated
D:\Users\admin\AppData\Roaming\npm\grunt -> D:\Users\admin\AppData\Roaming\npm\n
ode_modules\grunt-cli\bin\grunt
+ grunt-cli@1.3.2
added 153 packages in 98.358s

D:\javatools\elasticsearch-head-master>
  1. 进入elasticsearch-head-master目录启动head, 在命令提示符下输入命令:

npm install

然后执行:
grunt server

然后会弹出框:允许node.js访问网络;
  1. 打开浏览器, 输入 http://localhost:9100, 看到如下页面:

如果不能成功连接到es服务, 需要修改ElasticSearch的config目录下的配置文件: config/elasticsearch.yml, 增加
以下两句命令(因为跨域了,开启允许跨域访问):

http.cors.enabled: true
http.cors.allow‐origin: "*"

然后重新启动ElasticSearch服务。

8)以上为第一次使用时的安装过程,第二次使用的时候直接使用以下命令即可

cd D:\javatools\elasticsearch-head-master

grunt server

2.1.3 安装postman

操作时body选择:raw->JSON(application/json)

3.ElasticSearch相关概念(术语)

3.1 概述

Elasticsearch是面向文档(document oriented)的, 这意味着它可以存储整个对象或文档(document)。 然而它不仅
仅是存储, 还会索引(index)每个文档的内容使之可以被搜索。 在Elasticsearch中, 你可以对文档( 而非成行成列的
数据) 进行索引、 搜索、 排序、 过滤。 Elasticsearch比传统关系型数据库如下:

Relational DB ‐> Databases ‐> Tables ‐> Rows ‐> Columns
Elasticsearch ‐> Indices   ‐> Types  ‐> Documents ‐> Fields

3.2 Elasticsearch核心概念

3.2.1 索引 index

一个索引就是一个拥有几分相似特征的文档的集合。 比如说, 你可以有一个客户数据的索引, 另一个产品目录的索
引, 还有一个订单数据的索引。

一个索引由一个名字来标识( 必须全部是小写字母的) , 并且当我们要对对应于这
个索引中的文档进行索引、 搜索、 更新和删除的时候, 都要使用到这个名字。

在一个集群中, 可以定义任意多的索引。

3.2.2 类型 type

在一个索引中, 你可以定义一种或多种类型。
一个类型是你的索引的一个逻辑上的分类/分区, 其语义完全由你来定。 通常, 会为具有一组共同字段的文档定义一个类型。

比如说, 我们假设你运营一个博客平台并且将你所有的数据存储到一个索引中。 在这个索引中, 你可以为用户数据定义一个类型, 为博客数据定义另一个类型, 当然, 也可以为评论数据定义另一个类型。

3.2.3 字段Field

相当于是数据表的字段, 对文档数据根据不同属性进行的分类标识

3.2.4 映射 mapping

mapping是处理数据的方式和规则方面做一些限制, 如某个字段的数据类型、 默认值、 分析器、 是否被索引等等,
这些都是映射里面可以设置的, 其它就是处理es里面数据的一些使用规则设置也叫做映射, 按着最优规则处理数据
对性能提高很大, 因此才需要建立映射, 并且需要思考如何建立映射才能对性能更好。

3.2.5 文档 document

一个文档是一个可被索引的基础信息单元。 比如, 你可以拥有某一个客户的文档, 某一个产品的一个文档, 当然,
也可以拥有某个订单的一个文档。 文档以JSON( Javascript Object Notation) 格式来表示, 而JSON是一个到处存
在的互联网数据交互格式。
在一个index/type里面, 你可以存储任意多的文档。 注意, 尽管一个文档, 物理上存在于一个索引之中, 文档必须
被索引/赋予一个索引的type。

3.2.6 接近实时 NRT

Elasticsearch是一个接近实时的搜索平台。 这意味着, 从索引一个文档直到这个文档能够被搜索到有一个轻微的延
迟( 通常是1 秒以内)

3.2.7 集群 cluster

一个集群就是由一个或多个节点组织在一起, 它们共同持有整个的数据, 并一起提供索引和搜索功能。

一个集群由一个唯一的名字标识,这个名字默认就是“elasticsearch”。这个名字是重要的,因为一个节点只能通过指定某个集群的名字, 来加入这个集群.

3.2.8 节点 node

一个节点是集群中的一个服务器, 作为集群的一部分, 它存储数据, 参与集群的索引和搜索功能。 和集群类似, 一
个节点也是由一个名字来标识的, 默认情况下, 这个名字是一个随机的漫威漫画角色的名字, 这个名字会在启动的
时候赋予节点。 这个名字对于管理工作来说挺重要的, 因为在这个管理过程中, 你会去确定网络中的哪些服务器对
应于Elasticsearch集群中的哪些节点。

一个节点可以通过配置集群名称的方式来加入一个指定的集群。 默认情况下, 每个节点都会被安排加入到一个叫
做“elasticsearch”的集群中, 这意味着, 如果你在你的网络中启动了若干个节点, 并假定它们能够相互发现彼此,
它们将会自动地形成并加入到一个叫做“elasticsearch”的集群中。

在一个集群里, 只要你想, 可以拥有任意多个节点。 而且, 如果当前你的网络中没有运行任何Elasticsearch节点,
这时启动一个节点, 会默认创建并加入一个叫做“elasticsearch”的集群。

3.2.9 分片和复制 shards&replicas

一个索引可以存储超出单个结点硬件限制的大量数据。 比如, 一个具有1 0亿文档的索引占据1 TB的磁盘空间, 而任
一节点都没有这样大的磁盘空间; 或者单个节点处理搜索请求, 响应太慢。 为了解决这个问题, Elasticsearch提供
了将索引划分成多份的能力, 这些份就叫做分片。 当你创建一个索引的时候, 你可以指定你想要的分片的数量。 每
个分片本身也是一个功能完善并且独立的“索引”, 这个“索引”可以被放置到集群中的任何节点上。

分片很重要, 主要有两方面的原因: 1 ) 允许你水平分割/扩展你的内容容量。 2) 允许你在分片( 潜在地, 位于多个节点上) 之上进行分布式的、 并行的操作, 进而提高性能/吞吐量。

至于一个分片怎样分布, 它的文档怎样聚合回搜索请求, 是完全由Elasticsearch管理的, 对于作为用户的你来说,
这些都是透明的。

在一个网络/云的环境里, 失败随时都可能发生, 在某个分片/节点不知怎么的就处于离线状态, 或者由于任何原因
消失了, 这种情况下, 有一个故障转移机制是非常有用并且是强烈推荐的。 为此目的, Elasticsearch允许你创建分
片的一份或多份拷贝, 这些拷贝叫做复制分片, 或者直接叫复制。

复制之所以重要, 有两个主要原因: 在分片/节点失败的情况下, 提供了高可用性。 因为这个原因, 注意到复制分
片从不与原/主要( original/primary) 分片置于同一节点上是非常重要的。 扩展你的搜索量/吞吐量, 因为搜索可以
在所有的复制上并行运行。 总之, 每个索引可以被分成多个分片。 一个索引也可以被复制0次( 意思是没有复制)
或多次。 一旦复制了, 每个索引就有了主分片( 作为复制源的原来的分片) 和复制分片( 主分片的拷贝) 之别。

分片和复制的数量可以在索引创建的时候指定。 在索引创建之后, 你可以在任何时候动态地改变复制的数量, 但是你
事后不能改变分片的数量。

默认情况下, Elasticsearch中的每个索引被分片5个主分片和1 个复制, 这意味着, 如果你的集群中至少有两个节
点, 你的索引将会有5个主分片和另外5个复制分片( 1 个完全拷贝) , 这样的话每个索引总共就有1 0个分片。

4.ElasticSearch基本操作

4.1 基本语法

eg: 

PUT http://localhost: 9200/index1001
参数解释
VERB适当的 HTTP 或 : GET(查) 、 POST(新增/修改) 、 PUT(新增) 、 HEAD 或者 DELETE(删除) 。
PROTOCOLhttp 或者 https ( 如果你在 Elasticsearch 前面有一个 https 代理)
HOSTElasticsearch 集群中任意节点的主机名, 或者用 localhost 代表本地机器上的节点。
PORT运行 Elasticsearch HTTP 服务的端口号, 默认是 9200 。
PATHAPI 的终端路径( 例如 _count 将返回集群中文档数量) 。 Path 可能包含多个组件, 例如: _cluster/stats 和 _nodes/stats/jvm 。
QUERY_STRING任意可选的查询字符串参数 (例如 ?pretty 将格式化地输出 JSON 返回值, 使其更容易阅读)
BODY一个 JSON 格式的请求体 (如果请求需要的话)

4.1 创建Index

4.1.1 普通创建

PUT http://localhost:9200/index_database/
返回结果:
{
    "acknowledged": true,
    "shards_acknowledged": false
}

注意是PUT,不是POST;

创建成功后可到localhost:9100查看索引信息;

4.1.1 包含mapping创建

操作时body选择:raw->JSON(application/json)

PUT http://localhost:9200/index_database2/

在postman中注意选择(raw->JSON(application/json)): 请求体

{
    "mappings":  {
        "type_table":  {
            "properties":  {
                "id":  {
                 "type":  "long",    
                    "store":  true,
                    "index": "not_analyzed"
                },
                "title":  {
                 "type":  "text",    
                    "store":  true,
                    "index": "analyzed",
                    "analyzer": "standard"
                },
                "content":  {
                 "type":  "text",    
                    "store":  true,
                    "index": "analyzed",
                    "analyzer": "standard"
                }
            }
        }
    }
}

返回结果:

{
    "acknowledged": true,
    "shards_acknowledged": true
}

4.1.2 未没有创建mapping的index追加修改mapping

注意:需要请求体中不需要mapping了. 还要注意带上type的名称.

POST http://localhost:9200/index_database/type_table/_mapping/

{
    "type_table":  {
        "properties":  {
            "id":  {
             "type":  "long",    
                "store":  true,
                "index": "not_analyzed"
            },
            "title":  {
             "type":  "text",    
                "store":  true,
                "index": "analyzed",
                "analyzer": "standard"
            },
            "content":  {
             "type":  "text",    
                "store":  true,
                "index": "analyzed",
                "analyzer": "standard"
            }
        }
    }
}

返回

{
    "acknowledged": true
}

4.2 删除Index

DELETE http://localhost:9200/index_database3/ 

返回结果:

{
    "acknowledged": true
}

4.3 文档Document

4.3.1 添加文档Document

4.3.1.1 添加文档Document-自定义id

POST http://localhost:9200/index_database/type_table/id1/

注意:id1才为真正的_id (类似关系数据库表中的主键)

内容如下:

{
	"id": 1,
	"title": "mytitle",
	"content": "mycontent"
}

返回结果如下:

{
	"_index": "index_database",
	"_type": "type_table",
	"_id": "id1",
	"_version": 1,
	"result": "created",
	"_shards": {
		"total": 2,
		"successful": 1,
		"failed": 0
	},
	"created": true
}

4.3.1.2 添加文档Document-不填写id

POST http://localhost:9200/index_database/type_table/

注意:id1才为真正的_id (类似关系数据库表中的主键)

内容如下:

{
	"id":11,
	"title": "mytitle11",
	"content": "mycontent11"
}

返回如下

{
	"_index": "index_database",
	"_type": "type_table",
	"_id": "AXcv5TyXbFIOjT3bGe8Y",
	"_version": 1,
	"result": "created",
	"_shards": {
		"total": 2,
		"successful": 1,
		"failed": 0
	},
	"created": true
}

4.3.1.3 添加文档Document(mapping中properties不存在的情况)

POST http://localhost:9200/index_database/type_table/id2/

内容

{
	"id": 1,
	"title2": "mytitle",
	"content2": "mycontent"
}

返回

{
	"_index": "index_database",
	"_type": "type_table",
	"_id": "id2",
	"_version": 1,
	"result": "created",
	"_shards": {
		"total": 2,
		"successful": 1,
		"failed": 0
	},
	"created": true
}

此时的mapping发生了变化后如下:

"mappings": {
	"type_table": {
		"properties": {
			"content2": {
				"type": "text",
				"fields": {
					"keyword": {
						"ignore_above": 256,
						"type": "keyword"
					}
				}
			},
			"title2": {
				"type": "text",
				"fields": {
					"keyword": {
						"ignore_above": 256,
						"type": "keyword"
					}
				}
			},
			"id": {
				"store": true,
				"type": "long"
			},
			"title": {
				"analyzer": "standard",
				"store": true,
				"type": "text"
			},
			"content": {
				"analyzer": "standard",
				"store": true,
				"type": "text"
			}
		}
	}
},

4.3.2 删除Document

DELETE http://localhost:9200/index_database/type_table/AXcv5TyXbFIOjT3bGe8Y/

内容为空

{}

返回如下:

{
	"found": true,
	"_index": "index_database",
	"_type": "type_table",
	"_id": "AXcv5TyXbFIOjT3bGe8Y",
	"_version": 2,
	"result": "deleted",
	"_shards": {
		"total": 2,
		"successful": 1,
		"failed": 0
	}
}

4.3.3 如果添加同样ID/修改 Document

POST http://localhost:9200/index_database/type_table/id1/

内容如下

{
	"id": 1,
	"title": "mytitle",
	"content": "mycontent"
}

返回如下:

{
    "_index": "index_database",
    "_type": "type_table",
    "_id": "id1",
    "_version": 3,
    "result": "updated",
    "_shards": {
    "total": 2,
    "successful": 1,
    "failed": 0
},
    "created": false
}

4.3.4 查询Document

4.3.4.1 根据_id查询

GET http://localhost:9200/index_database/type_table/id1/

返回如下:

{
	"_index": "index_database",
	"_type": "type_table",
	"_id": "id1",
	"_version": 3,
	"found": true,
	"_source": {
		"id": 1,
		"title": "mytitle",
		"content": "mycontent"
	}
}
4.3.4.2 根据term关键词查询

GET http://localhost:9200/index_database/type_table/_search/

内容body如下:

{
	"query": {
		"term": {
			"title": "my"
		}
	}
}

返回如下:

{
	"took": 1,
	"timed_out": false,
	"_shards": {
		"total": 5,
		"successful": 5,
		"failed": 0
	},
	"hits": {
		"total": 2,
		"max_score": 1,
		"hits": [{
				"_index": "index_database",
				"_type": "type_table",
				"_id": "id2",
				"_score": 1,
				"_source": {
					"id": 1,
					"title2": "mytitle",
					"content2": "mycontent"
				}
			},
			{
				"_index": "index_database",
				"_type": "type_table",
				"_id": "id1",
				"_score": 1,
				"_source": {
					"id": 1,
					"title": "mytitle",
					"content": "mycontent"
				}
			}
		]
	}
}
4.3.4.3 根据term关键词查询

GET http://localhost:9200/index_database/type_table/_search/

{
	"query": {
		"query_string": {
			"default_field": "title",
			"query": "good title"
		}
	}
}

返回

{
	"took": 1,
	"timed_out": false,
	"_shards": {
		"total": 5,
		"successful": 5,
		"failed": 0
	},
	"hits": {
		"total": 2,
		"max_score": 1,
		"hits": [{
				"_index": "index_database",
				"_type": "type_table",
				"_id": "id2",
				"_score": 1,
				"_source": {
					"id": 1,
					"title2": "mytitle",
					"content2": "mycontent"
				}
			},
			{
				"_index": "index_database",
				"_type": "type_table",
				"_id": "id1",
				"_score": 1,
				"_source": {
					"id": 1,
					"title": "mytitle",
					"content": "mycontent"
				}
			}
		]
	}
}

5.集成IK中文分词器

5.1 IK分词器简介

IKAnalyzer是一个开源的, 基于java语言开发的轻量级的中文分词工具包。 从2006年1 2月推出1 .0版开始,
IKAnalyzer已经推出 了3个大版本。 最初, 它是以开源项目Lucene为应用主体的, 结合词典分词和文法分析算法的
中文分词组件。 新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件, 独立于Lucene项目, 同时提供了对
Lucene的默认优化实现。

IK分词器3.0的特性如下:

1 ) 采用了特有的“正向迭代最细粒度切分算法“, 具有60万字/秒的高速处理能力。

2) 采用了多子处理器分析模
式, 支持: 英文字母( IP地址、 Email、 URL) 、 数字( 日期, 常用中文数量词, 罗马数字, 科学计数法) , 中文词汇( 姓名、 地名处理) 等分词处理。

3) 对中英联合支持不是很好,在这方面的处理比较麻烦.需再做一次查询,同
时是支持个人词条的优化的词典存储, 更小的内存占用。

4) 支持用户词典扩展定义。

5) 针对Lucene全文检索优
化的查询分析器IKQueryParser; 采用歧义分析算法优化查询关键字的搜索排列组合, 能极大的提高Lucene检索的
命中率。

5.2 下载安装

  • 下载地址
    https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v5.5.2

将解压后的elasticsearch文件夹拷贝到elasticsearch-5.6.8\plugins下, 并重命名文件夹为analysis-ik

重新启动elasticsearch,查看日志就能发现插件已经加载.

测试安装结果:

5.3 IK分词器测试

K提供了两个分词算法ik_smart 和 ik_max_word
其中 ik_smart 为最少切分, ik_max_word为最细粒度划分

5.3.1 ik_smart

http://127.0.0.1:9200/_analyze?analyzer=ik_smart&pretty=true&text=%E4%BB%8A%E5%A4%A9%E6%98%9F%E6%9C%9F%E6%97%A5

http://127.0.0.1:9200/_analyze?analyzer=ik_smart&pretty=true&text=今天星期日

返回结果

{
  "tokens" : [
    {
      "token" : "今天",
      "start_offset" : 0,
      "end_offset" : 2,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "星期日",
      "start_offset" : 2,
      "end_offset" : 5,
      "type" : "CN_WORD",
      "position" : 1
    }
  ]
}

5.3.2 ik_max_word

http://127.0.0.1:9200/_analyze?analyzer=ik_max_word&pretty=true&text=%E4%BB%8A%E5%A4%A9%E6%98%9F%E6%9C%9F%E6%97%A5

http://127.0.0.1:9200/_analyze?analyzer=ik_max_word&pretty=true&text=今天星期日

返回结果

{
  "tokens" : [
    {
      "token" : "今天",
      "start_offset" : 0,
      "end_offset" : 2,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "星期日",
      "start_offset" : 2,
      "end_offset" : 5,
      "type" : "CN_WORD",
      "position" : 1
    },
    {
      "token" : "星期",
      "start_offset" : 2,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 2
    },
    {
      "token" : "期日",
      "start_offset" : 3,
      "end_offset" : 5,
      "type" : "CN_WORD",
      "position" : 3
    }
  ]
}

5.4 mapping中指定分词器

PUT http://localhost:9200/index_database4/

在postman中注意选择(raw->JSON(application/json)): 请求体

{
    "mappings":  {
        "type_table":  {
            "properties":  {
                "id":  {
                 "type":  "long",    
                    "store":  true,
                    "index": "not_analyzed"
                },
                "title":  {
                 "type":  "text",    
                    "store":  true,
                    "index": "analyzed",
                    "analyzer": "ik_smart"
                },
                "content":  {
                 "type":  "text",    
                    "store":  true,
                    "index": "analyzed",
                    "analyzer": "ik_smart"
                }
            }
        }
    }
}

返回结果:

{
    "acknowledged": true,
    "shards_acknowledged": true
}

5.5 根据中文查询

见: 4.3.4

6. ES集群

6.1 简介

ES集群是一个 P2P类型(使用 gossip 协议)的分布式系统, 除了集群状态管理以外, 其他所有的请求都可以发送到
集群内任意一台节点上, 这个节点可以自己找到需要转发给哪些节点, 并且直接跟这些节点通信。 所以, 从网络架
构及服务配置上来说, 构建集群所需要的配置极其简单。

在 Elasticsearch 2.0 之前, 无阻碍的网络下, 所有配置了相同 cluster.name 的节点都自动归属到一个集群中。

2.0 版本之后, 基于安全的考虑避免开发环境过于随便造成的麻烦, 从 2.0 版本开始,默认的自动发现方式改为了单播(unicast)方式。 配置里提供几台节点的地址, ES 将其视作
gossip router 角色, 借以完成集群的发现。 由于这只是 ES 内一个很小的功能, 所以 gossip router 角色并不需要
单独配置, 每个 ES 节点都可以担任。
所以, 采用单播方式的集群, 各节点都配置相同的几个节点列表作为 router即可。

集群中节点数量没有限制, 一般大于等于2个节点就可以看做是集群了。 一般处于高性能及高可用方面来考虑一般
集群中的节点数量都是3个及3个以上。

6.2 集群的相关概念

6.2.1 集群 cluster

一个集群就是由一个或多个节点组织在一起, 它们共同持有整个的数据, 并一起提供索引和搜索功能。 一个集群由
一个唯一的名字标识, 这个名字默认就是“elasticsearch”。 这个名字是重要的, 因为一个节点只能通过指定某个集
群的名字, 来加入这个集群

6.2.2 节点 node

一个节点是集群中的一个服务器, 作为集群的一部分, 它存储数据, 参与集群的索引和搜索功能。 和集群类似, 一
个节点也是由一个名字来标识的, 默认情况下, 这个名字是一个随机的漫威漫画角色的名字, 这个名字会在启动的
时候赋予节点。 这个名字对于管理工作来说挺重要的, 因为在这个管理过程中, 你会去确定网络中的哪些服务器对
应于Elasticsearch集群中的哪些节点。

一个节点可以通过配置集群名称的方式来加入一个指定的集群。 默认情况下, 每个节点都会被安排加入到一个叫
做“elasticsearch”的集群中, 这意味着, 如果你在你的网络中启动了若干个节点, 并假定它们能够相互发现彼此,
它们将会自动地形成并加入到一个叫做“elasticsearch”的集群中。

在一个集群里, 只要你想, 可以拥有任意多个节点。 而且, 如果当前你的网络中没有运行任何Elasticsearch节点,
这时启动一个节点, 会默认创建并加入一个叫做“elasticsearch”的集群。

6.2.3 分片和复制 shards&replicas

一个索引可以存储超出单个结点硬件限制的大量数据。 比如, 一个具有1 0亿文档的索引占据1 TB的磁盘空间, 而任
一节点都没有这样大的磁盘空间; 或者单个节点处理搜索请求, 响应太慢。 为了解决这个问题, Elasticsearch提供
了将索引划分成多份的能力, 这些份就叫做分片。 当你创建一个索引的时候, 你可以指定你想要的分片的数量。 每
个分片本身也是一个功能完善并且独立的“索引”, 这个“索引”可以被放置到集群中的任何节点上。 分片很重要, 主
要有两方面的原因: 1 ) 允许你水平分割/扩展你的内容容量。 2) 允许你在分片( 潜在地, 位于多个节点上) 之上
进行分布式的、 并行的操作, 进而提高性能/吞吐量。

至于一个分片怎样分布, 它的文档怎样聚合回搜索请求, 是完全由Elasticsearch管理的, 对于作为用户的你来说,
这些都是透明的。

在一个网络/云的环境里, 失败随时都可能发生, 在某个分片/节点不知怎么的就处于离线状态, 或者由于任何原因
消失了, 这种情况下, 有一个故障转移机制是非常有用并且是强烈推荐的。 为此目的, Elasticsearch允许你创建分
片的一份或多份拷贝, 这些拷贝叫做复制分片, 或者直接叫复制。

复制之所以重要, 有两个主要原因: 在分片/节点失败的情况下, 提供了高可用性。 因为这个原因, 注意到复制分
片从不与原/主要( original/primary) 分片置于同一节点上是非常重要的。 扩展你的搜索量/吞吐量, 因为搜索可以
在所有的复制上并行运行。 总之, 每个索引可以被分成多个分片。 一个索引也可以被复制0次( 意思是没有复制)
或多次。 一旦复制了, 每个索引就有了主分片( 作为复制源的原来的分片) 和复制分片( 主分片的拷贝) 之别。 分
片和复制的数量可以在索引创建的时候指定。 在索引创建之后, 你可以在任何时候动态地改变复制的数量, 但是你
事后不能改变分片的数量。

默认情况下, Elasticsearch中的每个索引被分片5个主分片和1 个复制, 这意味着, 如果你的集群中至少有两个节
点, 你的索引将会有5个主分片和另外5个复制分片( 1 个完全拷贝) , 这样的话每个索引总共就有1 0个分片。

6.3 Elasticsearch集群的搭建

elasticsearch-5.5.2 复制一份为
elasticsearch-5.5.2_2 再复制一份为
elasticsearch-5.5.2_3

6.3.1 修改配置

elasticsearch-5.5.2\config\elasticsearch.yml

#节点1的配置信息:
#集群名称, 保证唯一
cluster.name:  my‐elasticsearch
#节点名称, 必须不一样
node.name:  node‐1
#必须为本机的ip地址
network.host:  127.0.0.1
#服务端口号, 在同一机器下必须不一样
http.port:  9200
#集群间通信端口号, 在同一机器下必须不一样
transport.tcp.port:  9300
#设置集群自动发现机器ip集合
discovery.zen.ping.unicast.hosts:  ["127.0.0.1: 9300","127.0.0.1: 9301","127.0.0.1: 9302"]

elasticsearch-5.5.2_2\config\elasticsearch.yml

#节点2的配置信息:
#集群名称, 保证唯一
cluster.name:  my‐elasticsearch
#节点名称, 必须不一样
node.name:  node‐2
#必须为本机的ip地址
network.host:  127.0.0.1
#服务端口号, 在同一机器下必须不一样
http.port:  9201
#集群间通信端口号, 在同一机器下必须不一样
transport.tcp.port:  9301
#设置集群自动发现机器ip集合
discovery.zen.ping.unicast.hosts:  ["127.0.0.1: 9300","127.0.0.1: 9301","127.0.0.1: 9302"]

elasticsearch-5.5.2_3\config\elasticsearch.yml

#节点3的配置信息:
#集群名称, 保证唯一
cluster.name:  my‐elasticsearch
#节点名称, 必须不一样
node.name:  node‐3
#必须为本机的ip地址
network.host:  127.0.0.1
#服务端口号, 在同一机器下必须不一样
http.port:  9202
#集群间通信端口号, 在同一机器下必须不一样
transport.tcp.port:  9302
#设置集群自动发现机器ip集合
discovery.zen.ping.unicast.hosts:  ["127.0.0.1: 9300","127.0.0.1: 9301","127.0.0.1: 9302"]

6.3.2 启动服务

分别启动各服务即可;

注: 总结整理于网络文章及视频

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值