1.修改新节点的/etc/hosts,增加NameNode的主机名与ip
2.设置节点与新节点ssh免密码的登录
3.在新节点安装好Hadoop(NameNode有关配置文件复制到该节点)
4.修改NameNode的配置文件conf/slaves,添加新增节点
5.在新节点的机器上,单独启动该节点上的DataNode和TaskTracker
hadoop-daemon.shstart datanode
hadoop-daemon.shstart tasktracker
6.在NameNode节点执行 hadoop dfsadmin -refreshNodes
7.均衡block在新节点上执行(如果是增加多个节点,只需在一个新节点,不需要重启集群)
运行start -balancer.sh进行数据负载均衡(不需要重启集群)
注意事项:
1. 必须确保新节点的防火墙已关闭;
2. 确保新节点的ip已经添加到master及其他slaves的/etc/hosts中,也要将master及其他slave的ip添加到新节点的/etc/hosts中