Hadoop集群_服役新数据节点

Hadoop集群_服役新数据节点

概述
之前两篇分别写了《Hadoop集群搭建(三台Linux服务器)》,《Hadoop集群时间同步》,这里有了新的需求如下:

  • 随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。
  1. 环境准备
  • (1)在hadoop193主机上再克隆一台hadoop194主机
  • (2)修改IP地址和主机名称
vim /etc/hostname
-- 添加以下信息
hadoop194

在这里插入图片描述

vim /etc/hosts
-- 根据实际情况添加下面信息
-- 有的话就不用添加了,我在克隆之前添加过了。不要有空格以及空行
192.168.40.190 hadoop190
192.168.40.191 hadoop191
192.168.40.192 hadoop192
192.168.40.193 hadoop193
192.168.40.194 hadoop194

在这里插入图片描述

  • (3)删除原来HDFS文件系统留存的文件(/opt/module/hadoop-2.7.2/hdfs和log)
rm -rf hdfs/ logs/

在这里插入图片描述

  • (4)source一下配置文件
source /etc/profile
  1. 服役新节点具体步骤
  • (1)直接启动DataNode,即可关联到集群
 sbin/hadoop-daemon.sh start datanode
 sbin/yarn-daemon.sh start nodemanager

在这里插入图片描述

  • (2)在hadoop194上上传文件
cd /opt/module/hadoop-2.7.2
-- 找个本目录下的文件进行上传,会发现文件上传成功了
hadoop fs -put /opt/module/hadoop-2.7.2/LICENSE.txt /

在这里插入图片描述
文件所保存的节点为,可见194节点成功服役到集群中了
在这里插入图片描述

这里我们会想到有个问题,集群中随便就可以添加一个节点上去,有些危险。这里我们给集群添加上白名单,添加到白名单的主机节点,都允许访问NameNode,不在白名单的主机节点,都会被退出。
接下来我们一起配置集群的白名单黑名单《Hadoop集群_退役旧数据节点(添加白名单黑名单)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值