ElasticSearch学习笔记【一】基本概念

基本概念

cluster:代表一个集群,集群中有多个节点,其中有一个为主节点,这个主节点是可以通过选举产生的,主从节点是对于集群内部来说的。es的一个概念就是去中心化,字面上理解就是无中心节点,这是对于集群外部来说的,因为从外部来看es集群,在逻辑上是个整体,你与任何一个节点的通信和与整个es集群通信是等价的。

shards:代表索引分片,es可以把一个完整的索引分成多个分片,这样的好处是可以把一个大的索引拆分成多个,分布到不同的节点上。构成分布式搜索。分片的数量只能在索引创建前指定,并且索引创建后不能更改。

replicas:代表索引副本,es可以设置多个索引的副本,副本的作用一是提高系统的容错性,当某个节点某个分片损坏或丢失时可以从副本中恢复。二是提高es的查询效率,es会自动对搜索请求进行负载均衡。

recovery:代表数据恢复或叫数据重新分布,es在有节点加入或退出时会根据机器的负载对索引分片进行重新分配,挂掉的节点重新启动时也会进行数据恢复。

river:代表es的一个数据源,也是其它存储方式(如:数据库)同步数据到es的一个方法。它是以插件方式存在的一个es服务,通过读取river中的数据并把它索引到es中,官方的river有couchDB的,RabbitMQ的,Twitter的,Wikipedia的。

gateway:代表es索引快照的存储方式,es默认是先把索引存放到内存中,当内存满了时再持久化到本地硬盘。gateway对索引快照进行存储,当这个es集群关闭再重新启动时就会从gateway中读取索引备份数据。es支持多种类型的gateway,有本地文件系统(默认),分布式文件系统,Hadoop的HDFS和amazon的s3云存储服务。

discovery.zen:代表es的自动发现节点机制,es是一个基于p2p的系统,它先通过广播寻找存在的节点,再通过多播协议来进行节点之间的通信,同时也支持点对点的交互。

Transport:代表es内部节点或集群与客户端的交互方式,默认内部是使用tcp协议进行交互,同时它支持http协议(json格式)、thrift、servlet、memcached、zeroMQ等的传输协议(通过插件方式集成)。

 

Index:经常是具有同种document格式的数据集合,和关系数据库里的表比较类似。

Type:Index下的逻辑分类,比如用户Index里的location分类(北京/上海/广州)。

 

分布式系统的可用性和扩展性

高可用性
服务可用性 – 允许有节点停止服务
数据可用性 – 部分节点丢失,不会丢失数据
可扩展性
请求量提升 / 数据的不断增长(将数据分布到所有节点上)

分布式特性

Elasticsearch 的分布式架构的好处
存储的水平扩容
提高系统的可用性,部分节点停止服务,整个集群的服务不受影响
Elasticsearch的分布式架构
不同的集群通过不同的名字来区分,默认名字”elasticsearch”
通过配置文件修改,或者在命令行中 -E cluster.name=geektime 进行设定
一个集群可以有一个或多个节点

节点

节点是一个Elasticsearch的实例
本质上就是一个JAVA进程
一台机器上可运行多个Elasticsearch进程,但是生产环境一般建议一台机器上只运行一个Elasticsearch实例
每个节点都有名字,通过文件配置,或者启动时 -E cluster.name=node1指定
每一个节点在启动之后,会分配一个UID,保存在data目录下

Master-eligible nodes 和 Master node

每个节点启动后,默认就是一个Master eligible 节点
可以设置node.master:false 禁止
Master-eligible节点可以参加选主流程,成为Master节点
当第一个节点启动时候,它会将自己选举成Master节点
每一个节点上都保存了集群的状态,只有Master节点才能修改集群的状态信息
集群状态(Cluster State),维护了一个集群中,必要的信息
所有的节点信息
所有的索引和其相关的Mapping 与 Setting 信息
分片的路由信息
任意节点都能修改信息会导致数据的不一致性

Data Node & Coordinating Node

Data Node
可以保存数据的节点,叫做Data Node。负责保存分片数据。在数据扩展上起到了至关重要的作用
Coordinating Node
负责接受Client的请求,将请求发到合适的节点,最终把结果汇集到一起
每个节点默认都起到了Coordinating Node的职责

其他节点类型

Hot & Warm Node
不同的硬件配置的Data Node , 用来实现 Hot & Warm 架构,降低集群部署的成本
Machine Learning Node
负责跑机器学习的Job,用来做异常检测
Cross Cluster Search
连接到不同的Elasticsearch集群,并且支持将这些集群当成一个单独的集群处理配置

配置节点类型

开发环境中一个节点可以承担多种角色
生产环境中,应该设置单一的角色的节点(dedicated node)

节点类型 配置参数 默认值
master |eligible |node.master |true
data |node.data |true|
ingest |node.ingest |true|
coordinating |无 |每个节点默认都是coordinating节点。设置其他类型全部为false
machine learning | |node.ml |true(需 enable x-pack)

分片(Primary Shard & Replica Shard)

主分片,用以解决数据水平扩展的问题。通过主分片,可以将数据分布到集群内的所有节点之上
一个分片是一个运行的Lucene的实例
主分片数在索引创建时指定,后续不允许修改,除非Reindex
副本,用以解决数据高可用的问题。分片是主分片的拷贝
副本分片数,可以动态调整
增加副本数,还可以在一定程度上提高服务的可用性(读取的吞吐)
一个三节点的集群中,blogs索引的分片分布情况
思考:增加一个节点或改大主分片数对系统的影响?
PUT /blogs
{
	"settings" : {
		"number_of_shards" : 3,
		"number_of_replicas" : 1
}
}

分片的设定

对于生产环境中分片的设定,需要提前做好容量规划
分片数设置过小
导致后续无法增加节点实现水平扩展
单个分片的数据量大大,导致数据重新分配耗时
分片数设置过大,7.0开始。默认主分片设置成1,解决了 over-sharding 的问题
影响搜索结果的相关性打分,影响统计结果的准确性
单个节点上过多的分片,会导致资源浪费,同时也会影响性能

查看集群的健康状况

GET /_cluster/health
{
  "cluster_name" : "elasticsearch",
  "status" : "yellow",
  "timed_out" : false,
  "number_of_nodes" : 1,
  "number_of_data_nodes" : 1,
  "active_primary_shards" : 6,
  "active_shards" : 6,
  "relocating_shards" : 0,
  "initializing_shards" : 0,
  "unassigned_shards" : 1,
  "delayed_unassigned_shards" : 0,
  "number_of_pending_tasks" : 0,
  "number_of_in_flight_fetch" : 0,
  "task_max_waiting_in_queue_millis" : 0,
  "active_shards_percent_as_number" : 85.71428571428571
}
Green – 主分片与副本都正常分配
Yellow – 主分片全部正常分配,有副本分片未能正常分配
Red – 有主分片未能分配
例如,当服务器的磁盘容量超过85%时,去创建一个新索引

Demo

查看一个集群的健康状态 http://localhost:9200/_cluster/health
CAT API
http://localhost:9200/_cat/nodes
查看索引和分片
设置分片数
Kibana + Cerebro界面介绍

//download cerebro
https://github.com/lmenezes/cerebro/releases
yum install -y https://github.com/lmenezes/cerebro/releases/download/v0.8.4/cerebro-0.8.4-1.noarch.rpm
cerebro -Dhttp.port=9000 -Dhttp.address=192.168.148.101 &

浏览器打开界面


在开发者工具当中,使用 'GET /_cat/shards ' 可以按下 Ctrl + / 跳到官方网站查看当前API帮助手册

GET /_cat/shards
kibana_sample_data_logs      0 p STARTED    14074 11.4mb 127.0.0.1 centos7-zk1
kibana_sample_data_flights   0 p STARTED    13059  6.4mb 127.0.0.1 centos7-zk1
movies                       0 p STARTED     9743  1.2mb 127.0.0.1 centos7-zk1
movies                       0 r UNASSIGNED                        
kibana_sample_data_ecommerce 0 p STARTED     4675  4.6mb 127.0.0.1 centos7-zk1
.kibana_1                    0 p STARTED      152    1mb 127.0.0.1 centos7-zk1
.kibana_task_manager         0 p STARTED        2 55.5kb 127.0.0.1 centos7-zk1
GET /_cat/nodes
127.0.0.1 39 54 1 0.02 0.07 0.12 dim * centos7-zk1

 

参考文章:

https://baike.baidu.com/item/elasticsearch/3411206?fr=aladdin

https://www.cnblogs.com/anyux/p/11977703.html

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值