[b]1.集群配置[/b]
修改[b]conf/hdfs-site.xml[/b]文件
[b]2确定要下架的机器[/b]
dfs.hosts.exclude定义的文件内容为,每个需要下线的机器,一行一个。这个将阻止他们去连接Namenode。如:
[b]3.强制重新加载配置[/b]
[code="java"]# ./bin/hadoop dfsadmin -refreshNodes[/code]
它会在后台进行Block块的移动
4.关闭节点
等待刚刚的操作结束后,需要下架的机器就可以安全的关闭了。
[code="java"]# ./bin/ hadoop dfsadmin -report[/code]
可以查看到现在集群上连接的节点
正在执行Decommission,会显示:
执行完毕后,会显示:
[b]5.再次编辑excludes文件[/b]
一旦完成了机器下架,它们就可以从excludes文件移除了
登录要下架的机器,会发现DataNode进程没有了,但是TaskTracker依然存在,需要手工处理一下
修改[b]conf/hdfs-site.xml[/b]文件
<property>
<name>dfs.hosts.exclude</name>
<value>/data/soft/hadoop/conf/excludes</value>
<description>Names a file that contains a list of hosts that are
not permitted to connect to the namenode. The full pathname of the
file must be specified. If the value is empty, no hosts are
excluded.</description>
</property>
[b]2确定要下架的机器[/b]
dfs.hosts.exclude定义的文件内容为,每个需要下线的机器,一行一个。这个将阻止他们去连接Namenode。如:
slave-003
slave-004
[b]3.强制重新加载配置[/b]
[code="java"]# ./bin/hadoop dfsadmin -refreshNodes[/code]
它会在后台进行Block块的移动
4.关闭节点
等待刚刚的操作结束后,需要下架的机器就可以安全的关闭了。
[code="java"]# ./bin/ hadoop dfsadmin -report[/code]
可以查看到现在集群上连接的节点
正在执行Decommission,会显示:
Decommission Status : Decommission in progress
执行完毕后,会显示:
Decommission Status : Decommissioned
[b]5.再次编辑excludes文件[/b]
一旦完成了机器下架,它们就可以从excludes文件移除了
登录要下架的机器,会发现DataNode进程没有了,但是TaskTracker依然存在,需要手工处理一下