随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。
准备:
克隆一台机器,保证IP的正确性以及配置ssh免密登录。
重新解压一个新的hadoop.tar.gz
服役新节点的具体步骤:
(1)在新克隆的机器上的/opt/module/hadoop-2.7.2/etc/hadoop下创建文件dfs.hosts
然后vim,添加内容
hadoop102
hadoop103
hadoop104
hadoop105
(2)在集群机器namenode的hdfs-site.xml配置文件中增加dfs.hosts属性,并分发
<property> <name>dfs.hosts</name> <value>/opt/module/hadoop-2.7.2/etc/hadoop/dfs.hosts</value> </property> |
(3)刷新namenode
hdfs dfsadmin -refreshNode Refresh nodes successful
(4)更新resourcemanager节点
yarn rmadmin -refreshNodes
(5)在namenode机器上的slaves中增加这台机器,不要分发。
(6)单独命令启动新的数据节点和节点管理器
hadoop-daemon.sh start datanode
yarn-daemon.sh start nodemanager
(7)在浏览器上检查是否OK.
如果数据不平衡,可以用命令实现集群的再平衡
在sbin中 执行 ./start-balancer.sh