例如新增的节点ip为192.168.1.xxx
在所有nn和dn节点上增加192.168.1.xxx datanode-xxx的hosts
在xxx上新建用户
useradd hadoop -s /bin/bash -m
并将其他dn上的.ssh中的所有文件拷贝到xxx上的/home/hadoop/.ssh路径下
安装jdk
apt-get install sun-java6-jdk
将hadoop文件拷贝到/home/hadoop下
修改slaves文件
增加 datanode-xxx
并同步到各个集群节点中
切换到hadoop用户下
启动数据节点
bin/hadoop-daemon.sh start datanode
bin/hadoop-daemon.sh start tasktracker
完成以后,进行数据同步
bin/start-balancer.sh -threshold 3
对于新增的节点:
需要重新设置hostname,hostname设置为与slaves配置文件中相同的内容。
hostname datanode-xxx(重启后失效)
修改/etc/hostname,然后执行/etc/init.d/hostname.sh start(重启后不失效)
然后就可以通过
http://namenodeip:50070 来查看新增节点是否可以正常引入到集群。
在所有nn和dn节点上增加192.168.1.xxx datanode-xxx的hosts
在xxx上新建用户
useradd hadoop -s /bin/bash -m
并将其他dn上的.ssh中的所有文件拷贝到xxx上的/home/hadoop/.ssh路径下
安装jdk
apt-get install sun-java6-jdk
将hadoop文件拷贝到/home/hadoop下
修改slaves文件
增加 datanode-xxx
并同步到各个集群节点中
切换到hadoop用户下
启动数据节点
bin/hadoop-daemon.sh start datanode
bin/hadoop-daemon.sh start tasktracker
完成以后,进行数据同步
bin/start-balancer.sh -threshold 3
对于新增的节点:
需要重新设置hostname,hostname设置为与slaves配置文件中相同的内容。
hostname datanode-xxx(重启后失效)
修改/etc/hostname,然后执行/etc/init.d/hostname.sh start(重启后不失效)
然后就可以通过
http://namenodeip:50070 来查看新增节点是否可以正常引入到集群。