如何在同一台机器上搭建不同版本hadoop集群

1、背景:原有的hadoop集群搭建在三台虚拟机上,版本为3.1.1 

2、失败过程:打算在同一套虚拟机上安装一套hadoop-3.2.2,配置好相关配置文件之后, 格式化namenode,终端打印信息询问是否要重新格式化namenode,对应的目录还是3.1.1版本的,这里我没注意看,选择了Y,导致原来hadoop-3.1.1的namenode目录(配置的是/opt/hdpdata/name)被格式化,原有hadoop集群数据被清空,且集群中datanode无法启动,原因是clusterID 不匹配了,在VERSION中修改之后,才完成启动。

2.1两套hadoop配置文件区别

1)修改 vim etc/hadoop/hdfs-site.xml文件 

namenode datanode 存储数据的位置要不相同

<configuration>
   <!-- 集群的namenode的位置  datanode能通过这个地址注册-->
        <property>
             <name>dfs.namenode.rpc-address</name>
                 <value>linux01:8020</value>
        </property>
         <!-- namenode存储元数据的位置 -->
      
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
hadoop是一个开源的分布式计算框架,用于处理大规模数据集的存储和分析。搭建一个hadoop集群需要至少两机器,但为了保证高可用性和负载均衡,建议搭建6机器hadoop集群。 首先,需要确保每机器都符合hadoop的最低硬件要求,如具备足够的内存和存储空间等。之后,按照以下步骤搭建hadoop集群: 1. 安装Linux操作系统:在每机器上安装支持hadoop的Linux操作系统,如Ubuntu、CentOS等。 2. 配置网络:确保所有机器都能够相互通信,可以通过配置静态IP地址或使用DHCP进行网络配置。 3. 安装Java环境:下载并安装适用于hadoop的Java开发工具包(JDK),同时设置JAVA_HOME环境变量。 4. 下载和解压hadoop软件包:从官方网站下载最新的hadoop软件包,并解压到每机器的指定目录中。 5. 配置hadoop集群:编辑每机器上的hadoop配置文件,如core-site.xml、hdfs-site.xml和mapred-site.xml,配置集群的基本参数,如文件系统的URI和数据存储路径等。 6. 配置主从节点:选择一机器作为主节点(NameNode),其他机器作为从节点(DataNode)。在配置文件中指定主从节点的IP地址和端口号。 7. 启动hadoop集群:在主节点上启动HDFS和YARN服务,以及其他必要的服务,如资源管理器和节点管理器。 8. 检查集群状态:使用hadoop自带的命令行工具,如hdfs和yarn命令,检查集群的状态和运行情况。 搭建一个6机器hadoop集群可以提供更高的计算和存储能力,同时保证了数据的冗余和高可用性。此外,集群中的分布式计算和任务调度能够提高数据处理的效率和速度。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值