CllickHouse 部署架构和国内大厂应用实践

ClickHouse自从2016年开源以来,各个大厂纷纷跟进大规模使用。源于ClickHouse 是一款优秀的 OLAP 分析引擎,尤其是在单表分析 、Colocate Join 方面性能表现尤为突出。ClickHouse 之所以在众多的 OLAP 分析引擎中成为佼佼者,主要是因为它具备以下特点:列式存储、LSM-Tree 存储引擎、向量化执行引擎、异步 Merge 和 Mutation 机制、并发 MPP+ SMP 等。

集群部署架构

ClickHouse 不同于 Elasticsearch、HDFS 这类主从架构的分布式系统,它采用多主(无中心)架构,集群中的每个节点角色对等,客户端访问任意一个节点都能得到相同的效果。

ClickHouse 借助分片将数据进行横向切分,而分片依赖集群,每个集群由 1 到多个分片组成,每个分片对应了 CH 的 1 个服务节点;分片数量的上限取决与节点数量(1 个分片只能对应 1 个服务节点)。
以四节点实现多分片和双副本为例:
方案一
在这里插入图片描述

在每个节点创建一个数据表,作为一个数据分片,使用 ReplicatedMergeTree 表引擎实现数据副本,而分布表作为数据写入和查询的入口。

方案二
在这里插入图片描述

在每个节点创建一个数据表,作为一个数据分片,分布表同时负责分片和副本的数据写入工作,它很有可能为写入的单点瓶颈。

方案三
在这里插入图片描述
在每个节点创建数据表,作为数据分片,同时也创建两个分布表,每个分布表只管一半的数据(需要借助 ReplicatedMergeTree 引擎)。

方案四

在这里插入图片描述

在每个节点创建两个数据表,同一数据分片的两个副本位于不同节点上,实现数据分布与冗余,但是部署复杂度高。

总结

  • CH 的分片与副本功能完全靠配置文件实现,无法自动管理,所以当集群规模较大时,集群运维成本较高。

  • 数据副本依赖 ZooKeeper 实现同步,当数据量较大时,ZooKeeper 可能会成为瓶颈。

  • 如果资源充足,建议使用方案一,主副本和副副本位于不同节点,以更好地实现读写分离与负载均衡。

  • 如果资源不够充足,可以使用方案四,每个节点承载两个副本,但部署方式上略复杂。

企业级应用实践如下:

QQ音乐PB级ClickHouse实时数据平台架构演进之路

腾讯看点基于 Flink 的实时数仓及多维实时数据分析实践

携程 ClickHouse 日志分析实践

ClickHouse 在携程酒店的应用(每天十亿级数据更新,秒出查询结果)

携程酒店数据智能平台实践(100亿+数据量,每天50W+查询)

性能提升 400%,ClickHouse 在携程酒店数仓的实践

携程-支撑 700 亿数据量的 ClickHouse 高可用架构实践

Clickhouse 在快手的大规模应用与架构改进

最快开源 OLAP 引擎!ClickHouse 在头条的技术演进

腾讯云 ClickHouse 如何实现自动化的数据均衡?

百分点 ClickHouse 项目实践

苏宁基于 ClickHouse 的大数据全链路监控实践

ClickHouse 在京东能源管理平台的实践

趣头条基于 ClickHouse 玩转每天 1000 亿数据量

字节跳动-ClickHouse 在实时场景的应用和优化

ClickHouse 在字节广告 DMP& CDP 的应用

ClickHouse 在手淘流量分析业务实践

微博基于 ClickHouse 灵活监控百亿流量下的业务指标

ClickHouse 在爱奇艺生产的应用

更多精彩内容欢迎关注微信公众号
在这里插入图片描述

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值