- 在新节点安装好hadoop
- 把namenode的有关配置文件复制到该节点
- 修改master和salver文件,增加该节点以上操作也可以通过直接复制一个节点的hadoop到新节点上,而第三步的节点添加则需要每一台机都要配置了,如果机群庞大的话还是很麻烦,那么也可以通过ssh传送配置或者写一些脚本实现。
- 设置ssh免密码进出该节点 让新添加的节点可以与其他节点互相通讯
- 单独启动该节点的datanode和tasktracker,动态将新增节点加入,而不必要重启集群 启动datanode:hadoop-daemon.sh start datanode启动TaskTracker:hadoop-daemon.sh startTaskTracker
- 运行start-balancer.sh进行数据负载均衡,目的是为了将其他节点的数据分担一些到新节点上来,比较开销时间。
------------------------------------------------------------动态添加新节点--------------------------------------------------------------------
假定已经有了一个hadoop cluster环境,并且已经有了两个slave节点fkongnix1和fkongnix2,这里需要动态添加一个新的节点fkongnix3.
对于hadoop分布式模式环境的搭建可以参考 hadoop学习之分布式模式