Hadoop动态扩容,增加节点

转载:https://www.cnblogs.com/mengzj233/p/9759457.html

基础准备

在基础准备部分,主要是设置hadoop运行的系统环境

  1. 修改系统hostname(通过hostname和/etc/sysconfig/network进行修改)
  2. 修改hosts文件,将集群所有节点hosts配置进去(集群所有节点保持hosts文件统一)
  3. 设置NameNode(两台HA均需要)到DataNode的免密码登录(ssh-copy-id命令实现,可以免去cp
    *.pub文件后的权限修改)
  4. 修改主节点slave文件,添加新增节点的ip信息(集群重启时使用)
  5. 将hadoop的配置文件scp到新的节点上

添加DataNode

对于新添加的DataNode节点,需要启动datanode进程,从而将其添加入集群

  1. 在新增的节点上,运行hadoop-daemon.sh start datanode即可
  2. 然后在namenode通过hdfs dfsadmin -report查看集群情况
  3. 最后还需要对hdfs负载设置均衡,因为默认的数据传输带宽比较低,可以设置为64M,即hdfs dfsadmin
    -setBalancerBandwidth 67108864即可
  4. 默认balancer的threshold为10%,即各个节点与集群总的存储使用率相差不超过10%,我们可将其设置为5%
  5. 然后启动Balancer,sbin/start-balancer.sh -threshold 5,等待集群自均衡完成即可

添加Nodemanager

由于Hadoop 2.X引入了YARN框架,所以对于每个计算节点都可以通过NodeManager进行管理,同理启动NodeManager进程后,即可将其加入集群

  1. 在新增节点,运行yarn-daemon.sh start nodemanager即可
  2. 在ResourceManager,通过yarn node -list查看集群情况

另外更加详细的参考博文:
https://blog.csdn.net/qq_38617531/article/details/82973043

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值