DFSZKFailoverController进程未启动

本文详细介绍了在配置Hadoop环境中遇到DFSZKFailoverController进程未启动的问题及其解决步骤。通过检查并正确配置hdfs-site.xml文件,重新分发配置文件,关闭所有进程,格式化zkfc,最终成功启动该进程。
摘要由CSDN通过智能技术生成

##DFSZKFailoverController进程未启动

配置hadoop时jps查看进程发现少了一个DFSZKFailoverController进程未启动

怀疑自己环境配置错误检查了很久,
发现这个进程与“hdfs-site.xml”有关系,就重点检查了一下,点开文件发现未配置,回想一下发现我找错文件配置了,重新配置了一下,重新启动进程,还是没有……

最后找了很久原因,如下几点:
1.更改配置文件后,重新分发配置文件到其他机器。
xsync hadoop-2.6.0-cdh5.14.2/
2.先关闭所有进程.
sbin/stop-dfs. sh
3.重新格式化zkfc
bin/hdfs zkfc -formatZK
4.再次hdfs
sbin/start-dfs. sh

于是乎,就出现啦…………😄😄😄

集群规划: 主机名 IP 安装的软件 运行的进程 weekend01 192.168.1.201 jdk、hadoop NameNode、DFSZKFailoverController(zkfc) weekend02 192.168.1.202 jdk、hadoop NameNode、DFSZKFailoverController(zkfc) weekend03 192.168.1.203 jdk、hadoop ResourceManager weekend04 192.168.1.204 jdk、hadoop ResourceManager weekend05 192.168.1.205 jdk、hadoop、zookeeper DataNode、NodeManager、JournalNode、QuorumPeerMain weekend06 192.168.1.206 jdk、hadoop、zookeeper DataNode、NodeManager、JournalNode、QuorumPeerMain weekend07 192.168.1.207 jdk、hadoop、zookeeper DataNode、NodeManager、JournalNode、QuorumPeerMain 说明: 1.在hadoop2.0中通常由两个NameNode组成,一个处于active状态,另一个处于standby状态。Active NameNode对外提供服务,而Standby NameNode则不对外提供服务 仅同步active namenode的状态,以便能够在它失败时快速进行切换。 hadoop2.0官方提供了两种HDFS HA的解决方案,一种是NFS,另一种是QJM。这里我们使用简单的QJM。在该方案中,主备NameNode之间通过一组JournalNode同步元数据 信息,一条数据只要成功写入多数JournalNode即认为写入成功。通常配置奇数个JournalNode 这里还配置了一个zookeeper集群,用于ZKFC(DFSZKFailoverController)故障转移,当Active NameNode挂掉了,会自动切换Standby NameNode为standby状态 2.hadoop-2.2.0中依然存在一个问题,就是ResourceManager只有一个,存在单点故障,hadoop-2.4.1解决了这个问题,有两个ResourceManager,一个是Active,一个 是Standby,状态由zookeeper进行协调
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值