【全网独家】大数据集群节点与硬件规划

1.大数据集群节点规划

1.1 数据存储总量预估

比如业务系统数据量每天增量 50T,保留周期为 30 天,那么 HDFS 存储 容量为 50T * 30 天 * 3 副本 * 2 倍(数据源+清晰加工) = 9000T = 8.79P 

1.2 DataNode节点规模预估

每个机器的磁盘是 4T * 10 = 40T, 每台机器的可用存储容量为 40T * 0.75 = 30T, 节点预估数量= 9000T / 30 = 300 节点,所以 datanode 的节 点最小数量为 300 个,也是 YARN 的 nodemanager 的节点数 

1.3 NodeManager节点规模预估

根据任务量和性能评估 YARN 的节点数是很难的,难以评估,所以 NodeManager节点数可以和datanode节点数保持一致,如果算力负载过高, 根据实际情况再扩容即可。

1. 4 HBase节点规模预估

HBase 节点规划:一般开始搭建是根据 HDFS 存储公式计算即可,增加并 发的考虑,一般一个 RegionSever 并发为 5000 ~2 万(优化后并发更高), 可以根据业务实际并发估计节点数量 

1.5 Kafka节点规模预估

Kafka 节点规划:一般开始搭建是根据类似 HDFS 存储公式计算,一般一 个 broker 并发为 5 万(优化后并发更高),可以根据业务实际并发估计节点 数量

1.6 Zookeeper节点规模预估

Zookeeper 节点规划:集群开始搭建时 3 节点就够用了,如果发现 zookeeper 负载过高或有超时现象时可以考虑扩展到 5 节点 集群中的每个组件要做高可用,一般国企会用 CDH,互联网公司会用开源 社区版演化自己平台 

1.7 NameNode内存规划

NameNode 内存一般 100 万个 block 对应 1G 的堆内存,比如我们最大 的一个集群的 block 达到了 9000 万,会占内容 90G,NameNode 的内存不 只存放 block,我们产线环境配置的是 200G+

2.集群硬件规划

2.1 HDFS 节点配置 

主节点 NameNode 主要 CPU/内存配置高些,系统盘做 RAID1,hdfs 要安装在系统盘上,如果有其他的数据盘,可以做 RAID5,容量所需不大,500G~ 1T 即可 

从节点 datanode 内存/CPU/磁盘都有要求,我们产线存储每服务器 4T*10=40T 台

2.2 YARN 节点配置 

主节点 ResourceManager 主要 CPU/内存配置高些,系统盘做 RAID1,hdfs 要安装在系统盘上,如果有其他的数据盘,可以做 RAID5,容量所需不大, 500G~1T 即可 

从节点 NodeManager 对 CPU 和内存都有要求

2.3 HBase 节点配置 

主节点 Master CPU 内存中配就行

从节点 RegionServer 内存可以大些

2.4 Kafka 产线配置

3.大数据运维真经

3.1 标准生产集群建设

3.2 标准生产集群调优

3.3 生产集群问题

3.4 集群监控部署

更多大数据运维真经,扫描下方二维码

  • 1
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据研习社

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值