Hadoop集群_服役新数据节点
概述
之前两篇分别写了《Hadoop集群搭建(三台Linux服务器)》,《Hadoop集群时间同步》,这里有了新的需求如下:
- 随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。
- 环境准备
- (1)在hadoop193主机上再克隆一台hadoop194主机
- (2)修改IP地址和主机名称
vim /etc/hostname
-- 添加以下信息
hadoop194
vim /etc/hosts
-- 根据实际情况添加下面信息
-- 有的话就不用添加了,我在克隆之前添加过了。不要有空格以及空行
192.168.40.190 hadoop190
192.168.40.191 hadoop191
192.168.40.192 hadoop192
192.168.40.193 hadoop193
192.168.40.194 hadoop194
- (3)删除原来HDFS文件系统留存的文件(/opt/module/hadoop-2.7.2/hdfs和log)
rm -rf hdfs/ logs/
- (4)source一下配置文件
source /etc/profile
- 服役新节点具体步骤
- (1)直接启动DataNode,即可关联到集群
sbin/hadoop-daemon.sh start datanode
sbin/yarn-daemon.sh start nodemanager
- (2)在hadoop194上上传文件
cd /opt/module/hadoop-2.7.2
-- 找个本目录下的文件进行上传,会发现文件上传成功了
hadoop fs -put /opt/module/hadoop-2.7.2/LICENSE.txt /
文件所保存的节点为,可见194节点成功服役到集群中了
这里我们会想到有个问题,集群中随便就可以添加一个节点上去,有些危险。这里我们给集群添加上白名单,添加到白名单的主机节点,都允许访问NameNode,不在白名单的主机节点,都会被退出。
接下来我们一起配置集群的白名单黑名单《Hadoop集群_退役旧数据节点(添加白名单黑名单)》