hadoop集群添加新节点

0.说明

Hadoop集群已经运行正常,现在新买了一些机子,要加入到集群里面增加新的节点。以下就是增加的过程。

1.配置运行环境

  • 安装与master和其他slave相同的java环境,jdk版本要相同。具体安装过程这里不再赘述。
  • 修改新节点的ip和主机名对应关系,修改/etc/hosts配置文件,定义ip与hostname的映射。
  • 关闭新节点防火墙,因为Hadoop集群是在内网环境运行,可以关闭防火墙。
  • 配置新节点ssh免密码登录,使得master可以免密码登录到新节点主机。过程这里不再赘述。

2.修改集群所有节点相关配置文件

修改集群所有节点(master和所有slave)的${HADOOP_HOME}/conf/slaves文件,增加新节点ip或hostname:

新节点ip 新节点主机名

同时,集群所有节点上修改系统的/etc/hosts配置文件,增加ip与hostname的映射(和上面修改slaves相同):

新节点ip 新节点主机名

3.新节点增加Hadoop

将master(namenode)中的配置拷贝到新节点(datanode),而且新节点的Hadoop的目录路径最好是和集群的其他节点一样,便于查看和管理。这一步只要用scp拷贝即可。
切换到Hadoop用户名,然后拷贝:

scp -r /hadoop安装目录 新节点上的Hadoop用户名@新节点主机ip或主机名

这一步完成就说明新节点的安装完毕。

4.单独启动新节点

集群增加了新节点之后,不需要关闭整个集群然后重启。可以单独启动新增加的节点,实现新节点动态加入。在新节点上执行命令:

[jay@slave2 ~]# cd hadoop-1.2.1/
[jay@slave2 hadoop-1.2.1]# ./bin/hadoop-daemon.sh start datanode #启动datanode
starting datanode...
[jay@slave2 hadoop-1.2.1]# ./bin/hadoop-daemon.sh start tasktracker #启动tasktracker
starting tasktracker...

5.验证启动成功

5.1访问web UI查看集群信息

访问http://master:50070/可以看到"Live Nodes"的数量,如果增加了新节点数,说明添加成功。

5.2 执行命令查看

$ bin/hadoop dfsadmin -report 

6.集群负载均衡

在master主机上面,运行start-balancer.sh进行数据负载均衡。目的是将其他节点的数据分担一些到新节点上来,看集群原来数据的多少需要一定的时间才能完成。

hadoop balancer
或者
bin/start-balancer.sh

负载均衡作用:当节点出现敀障,或新增加节点时,数据块可能分布不均匀,负载均衡可重新平衡各个datanode上数据块的分布,使得所有的节点数据和负载能处于一个相对平均的状态,从而避免由于新节点的加入而效率降低(如果不进行balance,新数据一般会被插入到新节点中)

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是详细的步骤: 1. 安装Hadoop软件并配置环境变量 在节点上安装Hadoop软件,并配置好环境变量。可以参考Hadoop官方文档或相关教程。 2. 创建Hadoop用户并设置密码 在节点上创建一个Hadoop用户,用于运行Hadoop服务。可以使用以下命令创建用户: ``` sudo adduser hadoop ``` 然后设置用户密码: ``` sudo passwd hadoop ``` 3. 修改Hadoop配置文件 在Hadoop集群中,需要将所有节点上的Hadoop配置文件保持一致。因此,需要将原有节点上的配置文件复制到节点上,并修改其中的配置项。 3.1 复制配置文件 将原有节点上的Hadoop配置文件复制到节点上,可以使用以下命令: ``` scp -r <原有节点Hadoop安装目录>/etc/hadoop/* <节点Hadoop安装目录>/etc/hadoop/ ``` 其中,`<原有节点Hadoop安装目录>`是指原有节点上的Hadoop安装目录,`<节点Hadoop安装目录>`是指节点上的Hadoop安装目录。 3.2 修改配置项 修改以下配置文件中的配置项: - core-site.xml 添加以下配置项: ``` <property> <name>fs.defaultFS</name> <value>hdfs://<NameNode节点的IP地址>:<NameNode节点的RPC端口号></value> </property> ``` 其中,`<NameNode节点的IP地址>`是指Hadoop集群中的NameNode节点的IP地址,`<NameNode节点的RPC端口号>`是指Hadoop集群中的NameNode节点的RPC端口号。 - hdfs-site.xml 添加以下配置项: ``` <property> <name>dfs.datanode.data.dir</name> <value><节点数据存储目录路径></value> <final>true</final> </property> ``` 其中,`<节点数据存储目录路径>`是指节点上用于存储Hadoop数据的目录路径。 - mapred-site.xml 添加以下配置项: ``` <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> ``` 4. 复制Hadoop安装包和配置文件到节点上 将Hadoop安装包和配置文件复制到节点上,可以使用以下命令: ``` scp -r <Hadoop安装包及配置文件所在目录> <节点Hadoop安装目录>/ ``` 其中,`<Hadoop安装包及配置文件所在目录>`是指原有节点上的Hadoop安装包及配置文件所在目录,`<节点Hadoop安装目录>`是指节点上的Hadoop安装目录。 5. 启动节点上的Datanode服务节点上启动Datanode服务,可以使用以下命令: ``` sbin/hadoop-daemon.sh start datanode ``` 启动后,可以使用以下命令检查Datanode服务是否正常运行: ``` jps ``` 如果输出中包含`DataNode`,则说明Datanode服务已经成功启动。 以上就是向Hadoop集群添加的Datanode节点的详细步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值