读完需要
11
分钟速读仅需 4 分钟
顶级互联网公司都离不开的神器
国内现在有大量的公司都在使用 Elasticsearch,包括携程、滴滴、今日头条、饿了么、360 安全、小米、vivo 等诸多知名公司。
除了搜索之外,结合 Kibana、Logstash、Beats,Elastic Stack 还被广泛运用在大数据近实时分析领域,包括日志分析、指标监控、信息安全等多个领域。它可以帮助你探索海量结构化、非结构化数据,按需创建可视化报表,对监控数据设置报警阈值,甚至通过使用机器学习技术,自动识别异常状况。
1
京东到家订单中心 Elasticsearch 演进历程
京东到家订单中心系统业务中,无论是外部商家的订单生产,或是内部上下游系统的依赖,订单查询的调用量都非常大,造成了订单数据读多写少的情况。京东到家的订单数据存储在 MySQL 中,但显然只通过 DB 来支撑大量的查询是不可取的,同时对于一些复杂的查询,Mysql 支持得不够友好,所以订单中心系统使用了 Elasticsearch 来承载订单查询的主要压力。
Elasticsearch 做为一款功能强大的分布式搜索引擎,支持近实时的存储、搜索数据,在京东到家订单系统中发挥着巨大作用,目前订单中心 ES 集群存储数据量达到 10 亿个文档,日均查询量达到 5 亿。随着京东到家近几年业务的快速发展,订单中心 ES 架设方案也不断演进,发展至今 ES 集群架设是一套实时互备方案,很好的保障了 ES 集群读写的稳定性。
如上图,订单中心 ES 集群架设示意图。整个架设方式通过 VIP 来负载均衡外部请求,第一层 gateway 节点实质为 ES 中 client node,相当于一个智能负载均衡器,充当着分发请求的角色。第二层为 data node,负责存储数据以及执行数据的相关操作。整个集群有一套主分片,二套副分片(一主二副),从网关节点转发过来的请求,会在打到数据节点之前通过轮询的方式进行均衡。集群增加一套副本并扩容机器的方式,增加了集群吞吐量,从而提升了整个集群查询性能。
当然分片数量和分片副本数量并不是越多越好,在此阶段中,对选择适当的分片数量做了近一步探索。分片数可以理解为 Mysql 中的分库分表,而当前订单中心 ES 查询主要分为两类:单 ID 查询以及分页查询。分片数越大,集群横向扩容规模也更大,根据分片路由的单 ID 查询吞吐量也能大大提升,但对于聚合的分页查询性能则将降低。分片数越小,集群横向扩容规模更小,单 ID 的查询性能也将下降,但对于分页查询,性能将会得到提升。所以如何均衡分片数量和现有查询业务,我们做了很多次调整压测,最终选择了集群性能较好的分片数。
由于大部分 ES 查询的流量都来源于近几天的订单,且订单中心数据库数据已有一套归档机制,将指定天数之前已经关闭的订单转移到历史订单库。
架构的快速迭代源于业务的快速发展,正是由于近几年到家业务的高速发展,订单中心的架构也不断优化升级。而架构方案没有最好的,只有最合适的。相信再过几年,订单中心的架构又将是另一个面貌,但吞吐量更大,性能更好,稳定性更强,将是订单中心系统永远的追求。
2
携程 Elasticsearch 应用案例
随着订单量的日益增长,单个数据库的读写能力开始捉襟见肘。这种情况下,对数据库进行分片变得顺理成章。
分片之后的写,只要根据分片的维度进行取模即可。可是多维度的查询应该如何处理呢?
一片一片的查询,然后在内存里面聚合是一种方式,可是缺点显而易见。
对于那些无数据返回分片的查询,不仅对应用服务器是一种额外的性能消耗,对宝贵的数据库资源也是一种不必要的负担。
2.1
携程酒店订单 Elasticsearch 实战
选择对分片后的数据库建立实时索引,把查询收口到一个独立的 Web Service,在保证性能的前提下,提升业务应用查询时的便捷性。最终我们选择了 Elasticsearch,看中的是它的轻量级、易用和对分布式更好的支持,整个安装包也只有几十兆。http://developer.51cto.com/art/201807/579354.htm
2.2
携程机票 ElasticSearch 集群运维驯服记
这个是比较通用的数据的流程,一般会通过 Kafka 分离产生数据的应用程序和后面的平台,通过 ETL 落到不同的地方,按照优先级和冷热程度采取不同的存储方式。
一般来说,冷数据存放到 HDFS,如果温数据、或者热数据会采用 Database 以及 Cache。
一旦数据落地,我们会做两方面的应用,第一个方面的应用是传统 BI,比如会产生各种各样的报表,报表的受众是更高的决策层和管理层,他们看了之后,会有相应的业务调整和更高层面的规划或转变。这个使用路径比较传统的,在数据仓库时代就已经存在了。
现在有一种新兴的场景就是利用大数据进行快速决策,数据不是喂给人的,数据分析结果由程序来消费,其实是再次的反馈到数据源头即应用程序中,让他们基于快速分析后的结果,调整已有策略,这样就形成了一个数据使用的循环。这样我们从它的输入到输出会形成一种闭环,而且这个闭环全部是机器参与的,这也是为什么去研究这种大规模的,或者快速决策的原因所在。如果数据最终还会给人本身来看的话,就没有必要更新那么快,因为一秒钟刷新一次或者 10 秒钟刷新一次对人是没有意义的,因为我们脑子不可能一直转那么快,基于数据一直的做调整也是不现实的,但是对机器来讲,就完全没有问题。
2.3
携程:大规模 Elasticsearch 集群管理心得
目前,我们最大的日志单集群有 120 个 data node,运行于 70 台物理服务器上。数据规模如下:
单日索引数据条数 600 亿,新增索引文件 25TB (含一个复制片则为 50TB)业务高峰期峰值索引速率维持在百万条/秒历史数据保留时长根据业务需求制定,从 10 天 - 90 天不等集群共 3441 个索引、17000 个分片、数据总量约 9300 亿, 磁盘总消耗 1PB
https://www.jianshu.com/p/6470754b8248
3
去哪儿:订单中心基于 Elasticsearch 的解决方案
2015 年去哪儿网酒店日均订单量达到 30w+,随着多平台订单的聚合日均订单能达到 100w 左右。原来采用的热表分库方式,即将最近 6 个月的订单的放置在一张表中,将历史订单放在在 history 表中。history 表存储全量的数据,当用户查询的下单时间跨度超过 6 个月即查询历史订单表,此分表方式热表的数据量为 4000w 左右,当时能解决的问题。但是显然不能满足携程艺龙订单接入的需求。如果继续按照热表方式,数据量将超过 1 亿条。全量数据表保存 2 年的可能就超过 4 亿的数据量。所以寻找有效途径解决此问题迫在眉睫。由于对这预计 4 亿的数据量还需按照预定日期、入住日期、离店日期、订单号、联系人姓名、电话、酒店名称、订单状态……等多个条件查询。所以简单按照某一个维度进行分表操作没有意义。Elasticsearch 分布式搜索储存集群的引入,就是为了解决订单数据的存储与搜索的问题。对订单模型进行抽象和分类,将常用搜索字段和基础属性字段剥离。DB 做分库分表,存储订单详情;Elasticsearch 存储搜素字段。订单复杂查询直接走 Elasticsearch,基于 OrderNo 的简单查询走 DB,如下图所示。系统伸缩性:Elasticsearch 中索引设置了 8 个分片,目前 ES 单个索引的文档达到 1.4 亿,合计达到 2 亿条数据占磁盘大小 64G,集群机器磁盘容量 240G。https://elasticsearch.cn/article/6197 ( https://elasticsearch.cn/article/6197 )
4
58 集团信息安全部 Elasticsearch 应用
全面介绍 Elastic Stack 在 58 集团信息安全部的落地,升级,优化以及应用。包括如下几个方面:接入背景,存储选型,性能挑战,master node 以及 data node 优化,安全实践,高吞吐量以及低延迟搜索优化;kibana 的落地,本地化使其更方便产品、运营使用。
5
滴滴 Elasticsearch 多集群架构实践
滴滴 2016 年初开始构建 Elasticsearch 平台,如今已经发展到超过 3500+ Elasticsearch 实例,超过 5PB 的数据存储,峰值写入 tps 超过了 2000w/s 的超大规模。Elasticsearch 在滴滴有着非常丰富的使用场景,例如线上核心的打车地图搜索,客服、运营的多维度查询,滴滴日志服务等近千个平台用户。
先看看滴滴 Elasticsearch 单集群的架构:滴滴在单集群架构的时候,写入和查询就已经通过 Sink 服务和 Gateway 服务管控起来。
5.1
Sink 服务
滴滴几乎所有写入 Elasticsearch 的数据都是经由 kafka 消费入到 Elasticsearch。kafka 的数据包括业务 log 数据、mysql binlog 数据和业务自主上报的数据,Sink 服务将这些数据实时消费入到 Elasticsearch。最初设计 Sink 服务是想对写入 Elasticsearch 集群进行管控,保护 Elasticsearch 集群,防止海量的数据写入拖垮 Elasticsearch,之后我们也一直沿用了 Sink 服务,并将该服务从 Elasticsearch 平台分离出去,成立滴滴 Sink 数据投递平台,可以从 kafka 或者 MQ 实时同步数据到 Elasticsearch、HDFS、Ceph 等多个存储服务。有了多集群架构后,Elasticsearch 平台可以消费一份 MQ 数据写入多个 Elasticsearch 集群,做到集群级别的容灾,还能通过 MQ 回溯数据进行故障恢复。
5.2
Gateway 服务
所有业务的查询都是经过 Gateway 服务,Gateway 服务实现了 Elasticsearch 的 http restful 和 tcp 协议,业务方可以通过 Elasticsearch 各语言版本的 sdk 直接访问 Gateway 服务,Gateway 服务还实现了 SQL 接口,业务方可以直接使用 SQL 访问 Elasticsearch 平台。Gateway 服务最初提供了应用权限的管控,访问记录,限流、降级等基本能力,后面随着平台演进,Gateway 服务还提供了索引存储分离、DSL 级别的限流、多集群灾备等能力。
https://mp.weixin.qq.com/s/K44-L0rclaIM40hma55pPQ
6
Elasticsearch 实用化订单搜索方案
搜索引擎中,主要考虑到 Elasticsearch 支持结构化数据查询以及支持实时频繁更新特性,传统订单查询报表的痛点,以及 Elasticsearch 能够帮助解决的问题。
6.1
订单搜索系统架构
整个业务线使用服务化方式,Elasticsearch 集群和数据库分库,作为数据源被订单服务系统封装为对外统一接口;各前、后台应用和报表中心,使用服务化的方式获取订单数据。
6.2
数据更新设计
ES 数据更新有批量更新和实时更新两种:
1、手动更新为初始化数据,或者修复数据时使用
2、实时更新通过监控数据库订单表的 binlog,进行实时同步
7
Elasticsearch在线分享直播
﹀
﹀
﹀
刘征,Elastic 中国技术布道师
《DevOps Handbook》《The Site Reliability Workbook》译者;精通DevOps/SRE/ITSM等理论体系和相关实践等落地实现。致力于通过社区推广开源Elastic Stack技术堆栈的应用,包括运维大数据分析平台、云原生服务治理、APM全链路监控和AIOps等使用场景。
使用 Elastic Stack 监测 COVID-19 疫情爆发网络研讨会2020年4月8日15:00 线上分享
用实际应用场景探索 Kibana 的多种用法 ,构建自己的个性化仪表板,从公共数据源跟踪全球各地的COVID-19疫情状况。在本演示中,您将了解如何轻松地在Elasticsearch中索引任何类型的数据索引,使用采集节点对其进行数据转换,然后使用Kibana 的可视化、仪表板和地图对疫情现状进行分析。
亮点:
Elastic在CNCF云原生交互场景中的位置
在Kubernetes上运行 Elastic Stack
演示:如何使用 ECK 部署、防护和升级 Elasticsearch
Beats 中使用 autodiscover 监测动态工作负载的入门知识
在Kubernetes上掌握可观测经验
报名方式:识别图片二维码或阅读原文报名
想要加入中生代直播群的小伙伴,请添加群助手大白的微信
申请备注(姓名+公司+技术方向)