一、环境准备
(1)克隆一台已有的数据节点机器。
(2)修改ip和主机名称
(3)删除hadoop/data下的所有文件和文件夹
(4)增加namenode到新增加数据节点的ssh无密码登陆。
二、节点的服役
1.创建dfs.hosts文件并配置hdfs-site.xml
(1)在namenode的etc/hadoop目录下新建dfs.hosts文件。
文件中添加节点名称/ip(包括新加的datanode节点)
Hadoop1
Hadoop2
Hadoop3
Hadoop4
(2).在namenode的hdfs-site.xml配置文件中增加dfs.hosts属性
<property>
<name>dfs.hosts</name>
<value>/usr/local/hadoop-2.6.0-cdh5.7.0/etc/hadoop/dfs.hosts</value>
</property>
2.刷新namenode
进入namenode所在节点路径:/usr/local/hadoop/bin
./hdfs dfsadmin -refreshNodes
3.修改namenode的slaves文件
在namenode的slaves文件中增加新的主机名称
Hadoop1
Hadoop2
Hadoop3
Hadoop4
4.启动新服役的数据节点
启动datanode: sbin目录下
/hadoop-daemon.sh start datanode
三、节点的退役
1.创建dfs.hosts.exclude文件并配置hdfs-site.xml
(1)在namenode的etc/hadoop目录下新建dfs.hosts.exclude文件。
文件中添加要退役的datanode节点名称/ip
Hadoop4
(2)在namenode的hdfs-site.xml配置文件中增加dfs.hosts.exclude属性
<property>
<name>dfs.hosts.exclude</name>
<value>/usr/local/hadoop-2.6.0-cdh5.7.0/etc/hadoop/dfs.hosts.exclude</value>
</property>
2.刷新namenode
进入namenode所在节点路径:/usr/local/hadoop/bin
./hdfs dfsadmin -refreshNodes
3.停退役的数据节点
查看退役节点状态是否为为 decommissioned