Hadoop集群中引入新DataNode节点

例如新增的节点ip为192.168.1.xxx
在所有nn和dn节点上增加192.168.1.xxx datanode-xxx的hosts


在xxx上新建用户
useradd hadoop -s /bin/bash -m
并将其他dn上的.ssh中的所有文件拷贝到xxx上的/home/hadoop/.ssh路径下


安装jdk
apt-get install sun-java6-jdk
将hadoop文件拷贝到/home/hadoop下


修改slaves文件
增加 datanode-xxx
并同步到各个集群节点中


切换到hadoop用户下
启动数据节点
bin/hadoop-daemon.sh start datanode
bin/hadoop-daemon.sh start tasktracker


完成以后,进行数据同步
bin/start-balancer.sh -threshold 3


对于新增的节点:
需要重新设置hostname,hostname设置为与slaves配置文件中相同的内容。
hostname datanode-xxx(重启后失效)
修改/etc/hostname,然后执行/etc/init.d/hostname.sh start(重启后不失效)


然后就可以通过
http://namenodeip:50070 来查看新增节点是否可以正常引入到集群。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值