hadoop集群添加新节点

hadoop集群支持动态扩展,不需要停止原有集群节点就可以实现新节点的加入。

我是使用docker搭建的进群环境,制作了镜像文件,这里以我的工作基础为例子介绍集群中添加集群的方法

一、制作一个新节点

1、为新节点搭建hadoop环境

如果是一般情况下,将一个新物理机添加到集群中,参照集群中其他节点,在新机器上安装与集群中其他节点相同版本的jdk、hadoop等必要程序,安装路径最好一致,这样比较容易管理。这里我使用docker搭建的环境,所以只需要启动一个容器即可。

2、修改新节点主机名映射

vi /etc/hosts

在其中添加集群中各个节点的节点名与ip的映射关系

3、关闭新节点防火墙

service iptables stop

4、配置免密登陆,使得master可以免密登陆到新节点

二、修改集群中全部节点配置文件

1、为集群中全部节点配置slaves

修改 ${HADOOP_HOME}/etc/slaves 文件,进入hadoop安装目录,在文件中添加新节点主机名

vi etc/hadoop/slaves

添加内容:
hadoop3

2、复制集群中slave节点的配置文件到新节点的配置文件中,使用scp即可

scp -r /hadoop安装目录/etc hadoop3:/hadoop安装目录(如/usr/local/hadoop/)

三、单独启动新节点

在新节点上执行单个启动命令

 

转载于:https://www.cnblogs.com/Jing-Wang/p/10772862.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是详细的步骤: 1. 安装Hadoop软件并配置环境变量 在节点上安装Hadoop软件,并配置好环境变量。可以参考Hadoop官方文档或相关教程。 2. 创建Hadoop用户并设置密码 在节点上创建一个Hadoop用户,用于运行Hadoop服务。可以使用以下命令创建用户: ``` sudo adduser hadoop ``` 然后设置用户密码: ``` sudo passwd hadoop ``` 3. 修改Hadoop配置文件 在Hadoop集群中,需要将所有节点上的Hadoop配置文件保持一致。因此,需要将原有节点上的配置文件复制到节点上,并修改其中的配置项。 3.1 复制配置文件 将原有节点上的Hadoop配置文件复制到节点上,可以使用以下命令: ``` scp -r <原有节点Hadoop安装目录>/etc/hadoop/* <节点Hadoop安装目录>/etc/hadoop/ ``` 其中,`<原有节点Hadoop安装目录>`是指原有节点上的Hadoop安装目录,`<节点Hadoop安装目录>`是指节点上的Hadoop安装目录。 3.2 修改配置项 修改以下配置文件中的配置项: - core-site.xml 添加以下配置项: ``` <property> <name>fs.defaultFS</name> <value>hdfs://<NameNode节点的IP地址>:<NameNode节点的RPC端口号></value> </property> ``` 其中,`<NameNode节点的IP地址>`是指Hadoop集群中的NameNode节点的IP地址,`<NameNode节点的RPC端口号>`是指Hadoop集群中的NameNode节点的RPC端口号。 - hdfs-site.xml 添加以下配置项: ``` <property> <name>dfs.datanode.data.dir</name> <value><节点数据存储目录路径></value> <final>true</final> </property> ``` 其中,`<节点数据存储目录路径>`是指节点上用于存储Hadoop数据的目录路径。 - mapred-site.xml 添加以下配置项: ``` <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> ``` 4. 复制Hadoop安装包和配置文件到节点上 将Hadoop安装包和配置文件复制到节点上,可以使用以下命令: ``` scp -r <Hadoop安装包及配置文件所在目录> <节点Hadoop安装目录>/ ``` 其中,`<Hadoop安装包及配置文件所在目录>`是指原有节点上的Hadoop安装包及配置文件所在目录,`<节点Hadoop安装目录>`是指节点上的Hadoop安装目录。 5. 启动节点上的Datanode服务 在节点上启动Datanode服务,可以使用以下命令: ``` sbin/hadoop-daemon.sh start datanode ``` 启动后,可以使用以下命令检查Datanode服务是否正常运行: ``` jps ``` 如果输出中包含`DataNode`,则说明Datanode服务已经成功启动。 以上就是向Hadoop集群添加的Datanode节点的详细步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值