0528-6.1-如何迁移NameNode相关角色

1 文档编写目的

这里我们假设一个场景,你已经有一个CDH集群了,因为硬件或者OS升级,你需要把这个节点服务器拿出来进行维护处理,如果是DataNode是比较简单的,可以很简单的进行下线甚至暴力删除都可以直接将其从集群中剥离出来,但是如果这个节点是NameNode呢。其实Cloudera Manager也提供了界面化迁移角色的功能,比较方便,我们知道NameNode节点一般都会同时有NameNode,JournalNode和Failover Controller角色,Fayson本文会主要介绍如何迁移NameNode相关角色。

  • 测试环境

1.CDH6.1

2.Redhat7.4

3.采用root进行操作

2 环境准备

1.我们首先准备一个CDH6.1的集群,进入HDFS服务的“实例”页面。

2.点击“迁移角色”。

发现无法进行下一步的操作,提示需要启用了HDFS HA的集群才可以,我们先启用HDFS,该过程省略,可以参考Fayson之前的文章《6.1-如何使用Cloudera Manager启用HDFS的HA》。

3.启用HDFS HA成功后再次查看HDFS服务的“实例”页面。

3 迁移NameNode相关角色

1.在HDFS服务的“实例”页面,点击“迁移角色”

2.源主机我们选择ip-172-31-9-113.ap-southeast-1.compute.internal,目标主机我们选择ip-172-31-12-142.ap-southeast-1.compute.internal

注意到你可以选择是否同时迁移NameNode和JournalNode,或者只迁移某一个,默认是全部迁移,另外Failover Controller必须和NameNode节点在同一个机器,不能进行勾选。最下方提示该操作需要重启集群,必须勾选才能继续往下走,这里我们勾选,并点击“继续”。

3.开始进行NameNode相关角色的迁移。

所有命令执行成功:

点击完成

4.查看NameNode,JournalNode以及Failover Controller已经迁移到了我们所选择的节点ip-172-31-12-142上。

集群一切正常:

4 总结

1.如果你想将NameNode角色所在的节点从CDH集群中剥离,可以使用Cloudera Manager界面向导式执行。

2.Cloudera Manager对于HDFS服务的角色迁移功能只针对NameNode,JournalNode和Failover Controller角色,不包括其他角色比如DataNode。

3.Cloudera Manager对于HDFS服务的角色迁移必须在HDFS已经启用HA的情况下执行,即如果你只有一个NameNode,Cloudera Manager没有提供你只是迁移这个NameNode到新的节点。

4.该功能在执行过程中会需要重启整个HDFS服务,请提前做好停机规划。

5.在迁移选择节点时,你可以选择同时迁移NameNode和JournalNode到另外一台主机,Failover Controller默认也会被迁移到新的主机,因为Failover Controller角色必须和NameNode角色在同一节点。你也可以选择只迁移NameNode或JournalNode角色。

提示:代码块部分可以左右滑动查看噢
为天地立心,为生民立命,为往圣继绝学,为万世开太平。
温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: hadoop-daemon.sh start namenode 的意思是启动 Hadoop 的 NameNode 守护进程。这个命令会在 Hadoop 集群中启动 NameNode,让它开始监听来自其他节点的请求,并管理 HDFS 中的文件系统元数据。在启动 NameNode 之前,需要确保 Hadoop 集群的配置文件已经正确配置,并且所有节点都已经启动。 ### 回答2: hadoop-daemon.sh start namenode命令用于启动Hadoop集群中的NameNode服务。NameNode是Hadoop分布式文件系统(HDFS)的主节点,负责管理文件系统的命名空间和数据块的映射。 当我们执行hadoop-daemon.sh start namenode命令时,它会在集群中找到配置好的NameNode节点,并开始运行NameNode服务。运行该命令后,NameNode会开始进行一系列的初始化操作,包括检查配置文件、建立文件系统元数据、加载存储的文件系统状态等。 在启动过程中,NameNode会读取Hadoop配置文件中的相关参数,如文件系统的副本数、块大小等。这些参数将决定集群中数据的冗余备份和数据块的大小。它还会创建一个日志文件,记录集群的状态和操作信息,以便故障恢复和监控。 一旦NameNode服务成功启动,它将开始监听来自客户端和其他节点的请求,并进行相应的处理,如创建文件、删除文件、移动文件等。NameNode还负责管理集群中各个数据块的位置信息,以便客户端能够有效地读取和写入数据。 总之,hadoop-daemon.sh start namenode命令的执行将启动Hadoop集群中的NameNode服务,使得用户能够在分布式文件系统中进行文件管理和数据处理操作。 ### 回答3: 当我们在使用Hadoop时,要启动Namenode守护进程,可以使用"hadoop-daemon.sh start namenode"命令。 首先,这个命令会调用hadoop-daemon.sh脚本,然后指定"start"参数以表明我们要启动一个守护进程。接下来,我们指定"namenode"参数以告诉脚本我们要启动的是Namenode守护进程。 Namenode是Hadoop中的一个核心组件,主要负责管理和存储文件系统的元数据,例如文件和目录的层次结构,文件的访问权限等。启动Namenode守护进程后,我们可以使用Hadoop系统进行大规模数据处理和分析。 当我们执行"hadoop-daemon.sh start namenode"命令时,脚本会启动Namenode守护进程,并将其设置为在后台运行。脚本会根据Hadoop配置文件中的设置来启动守护进程,并将日志输出到指定的日志文件中。 通过启动Namenode守护进程,我们可以通过web界面或命令行工具来监视和管理Hadoop集群中的文件系统。在启动Namenode守护进程之前,我们需要确保Hadoop集群的配置正确,并且所有必要的服务和资源已经启动和可用。 总的来说,"hadoop-daemon.sh start namenode"命令是启动Hadoop集群中Namenode守护进程的关键步骤之一,它使得我们能够使用Hadoop系统进行大规模数据处理和管理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值