Hadoop节点的委任与解除
一、节点的委任与解除简介
Hadoop集群的管理员需要经常往集群添加新节点,或者从集群移除旧的节点,为了扩大存储容量需要委任新的节点,相反地,如果需要缩小集群规模则需要解节点,或者当某个节点存在故障的风险时,需要解除该节点并且委任新的节点,从而便有了Hadoop集群节点的委任与解除(也称为节点的服役与退役)。
解除旧节点:用户将拟退出的若干个DataNode告知NameNode,Hadoop就可以在这些DataNode下线之前将该那些节点下的数据块复制到其他DataNode。
委任新节点:用户将待上线的DataNode节点告知Hadoop,并刷新NameNode,Hadoop便会将该节点加入集群。
二、使用的机器及思路过程
在本次实操中使用三台机器,hadoop000、hadoop001、hadoop002,其中hadoop000位Master,另外两台为Slave,(具体信息请移步Hadoop完全分布式搭建(附带实用集群管理脚本))。首先从集群中解除hadoop002节点,然后通过WebUI观察结果,最后再委任hadoop002并观察。委任与解除工作只在NameNode所在的主机执行,即只在hadoop000上执行。
三、解除旧节点
(1). 进入$HADOOP_HOME/etc/hadoop/
目录下,新建文件 dfs.hosts.exclude.txt,该文件下存放要从集群移除节点的地址或主机名,可以理解为集群的“黑名单”。新建文件dfs.include.txt,存放在急群中要运行节点的地址或主机名,可以理解为集群的“白名单”。编辑dfs.include.txt文件,加入DataNode地址或主机名,初始文件一般与Slave文件中的内容一致:
编辑 hdfs-site.xml,新增如下配置:
<property>