cdh之大数据集群规划

    在搭建大数据集群之前,对大数据集群的有效规划是非常重要的一件事,所以此篇博文主要介绍集群节点规划。

  假如公司测试环境有5台机器,生产环境100台机器,配置如下:

MyCluster001: mysql  cm-server  cm-agent

MyCluster002: cm-agent  nn  rm

MyCluster003: cm-agent  nn  rm

MyCluster004: cm-agent  dn  nm  broker  zk

MyCluster005: cm-agent  dn  nm  broker  zk

MyCluster006: cm-agent  dn  nm  broker  zk

。。。。。

MyCluster100: cm-agent  dn  nm 

 备注:

1、选择第一台(配置不是太强的机器)作为工具节点:mysql cm-server cm-agent

2、选择2台,专门用来部署生态圈的主从架构的组件(HDFS、YARN、HBase)的主角色

3、dn和nm部署在同一台(追求数据本地化),其他非主从架构的组件的进程可以随意部署,但尽量在同一个rack

4、cm-server没有必要做ha,只有一台机器部署cm-server足以

5、

 

什么是数据本地化?

  DataNode主要用来做数据节点,NodeManager主要用来数据计算,当NM计算数据可以直接获取同一台机器上的数据,这样避免或者减少通过网络到其他节点拉取数据的时间,也减少了网络带宽的消耗。在spark组件中数据本地化是一个非常重要的概念,以后有时间再专门说明,这里不再多介绍。

 

--------------------------

      用人品去感动别人,用行动去带动别人,用阳光去照耀别人,用坚持去赢得别人,要求自己每天都去做与目标有关的事情,哪怕每天只进步一点点,坚持下来你就是最优秀卓越的!欢迎大家加入大数据qq交流群:725967421  一起交流,一起进步!!
--------------------------
 

 

 

 

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CDH大数据运维,也就是Cloudera的分布式数据平台运维。CDH是Cloudera公司基于Apache Hadoop开发的商业版分布式数据平台,主要用于存储和处理大规模数据。CDH大数据运维通常包括以下几个方面: 1. 集群部署和配置:CDH运维首先要进行集群的部署和配置,包括选择合适的硬件、安装操作系统、配置网络环境等。此外,还需要对CDH的各个组件进行适当的配置,如Hadoop、HBase、Impala等,以满足各种数据处理需求。 2. 资源管理和调度:CDH运维需要对集群中的资源进行管理和调度,以确保任务的顺利执行。这包括对CPU、内存、磁盘等资源的监控和分配,以及对任务的调度和优化。 3. 数据备份和恢复:CDH大数据运维还需要对存储在集群中的数据进行备份和恢复。这可以通过设置合适的数据备份策略和使用分布式文件系统来实现。当数据丢失或损坏时,可以快速恢复数据,确保数据的完整性和可靠性。 4. 性能优化:CDH大数据运维需要进行性能优化,以提高数据处理的效率和响应速度。这包括对集群中的各个组件进行调优和配置优化,以减少资源消耗和提高数据处理能力。 总之,CDH大数据运维是一个综合性的工作,需要对分布式数据平台进行部署、配置、资源管理、备份恢复和性能优化等方面的工作。它的目标是确保集群的稳定运行,保障数据的安全性和可用性,提高数据处理的效率和性能。CDH大数据运维对于企业来说非常重要,可以帮助他们更好地利用大数据进行业务决策和创新。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值