对于大多数使用hadoop集群的人来说,有时候因为项目数据大小或者是分工不同的原因,
总要把hadoop集群的机器分开使用,
那么为了使用方便,而不是每次都去配置每台机器的host文件。
这里我推荐使用动态删除节点的方法,
主要的意思就是在dfs的hadoop/conf/hadoop-site.xml
和JobTracker的hadoop/conf/mappred-site.xml中添加黑名单和白名单
首先,现在namenode里配置,白名单和黑名单:
先编辑/hadoop/conf/hadoop-site.xml文件