探讨hadoop的心跳机制


探讨hadoop的心跳机制:

1.先说说心跳机制是什么,有什么作用然后在从源码的角度去看是如何是实现的。

心跳机制是一种用于维护分布式系统中节点之间通信和状态的机制。它可以使节点之间保持连接并实时交换信息,以便发现和处理故障和异常情况。以下是心跳机制的一些作用:
1.维护连接
心跳机制可以确保节点之间保持连接,这对于分布式系统来说是非常重要的。通过发送定期的心跳消息,节点可以向其他节点表明它们仍然处于活动状态,从而保持连接。
2.检测故障和异常情况
通过心跳机制,节点可以检测到其他节点的故障和异常情况。如果一个节点在一段时间内没有收到其他节点的心跳消息,它就可以认为该节点可能已经故障或离线,并采取相应的措施,例如重新分配任务或数据。
3.状态同步
通过心跳机制,节点可以实时交换状态信息,从而保持同步。例如,在分布式文件系统中,节点可以通过心跳机制向中心节点报告它们的存储容量、读写速度、健康状态等信息,从而使中心节点能够实时监控系统状态并做出相应的调整。
4.保证高可用性和一致性
通过心跳机制,节点可以检测到其他节点的故障或离线状态,并采取相应的措施,例如重新分配任务或数据,从而保证分布式系统的高可用性和一致性。
5.优化负载均衡
通过心跳机制,节点可以检测到其他节点的负载情况,从而优化负载均衡。例如,在分布式任务调度中,节点可以通过心跳机制向中心节点报告它们的负载情况,从而使中心节点能够合理地分配任务,避免节点过载或负载不均衡的情况。
6.资源管理:
每个节点管理器都会向ResourceManager发送心跳消息,以通知ResourceManager自己的状态信息。这些状态信息包括:当前节点管理器所管理的节点的数量、各个节点的资源使用情况、当前节点管理器的状态等等。通过这些信息,ResourceManager可以掌握整个集群的资源使用情况,并及时做出相应的调度和管理决策。
总之,心跳机制是分布式系统中非常重要的一种机制,它可以维护节点之间的连接和状态,发现和处理故障和异常情况,保持状态同步,以及保证分布式系统的高可用性和一致性。
Hadoop的心跳机制是Hadoop集群中非常重要的组件之一。该机制的主要作用是维护集群中每个节点的健康状态,以及向NameNode发送节点状态信息,以便NameNode能够及时地检测节点故障并采取相应的措施。

2.从源码的角度分析Hadoop的心跳机制。

1.心跳的发送

数据节点向NameNode发送心跳以汇报状态信息。在Hadoop的源代码中,数据节点和NameNode之间的心跳机制由DatanodeProtocol和DatanodeProtocolProtos类处理。当数据节点启动时,它会创建一个DatanodeProtocolClientSideTranslatorPB对象,该对象使用protobuf编码将心跳消息发送到NameNode。此外,数据节点还会启动一个后台线程(BPServiceActor类),该线程定期向NameNode发送心跳消息。
DatanodeProtocol是DatanodeProtocol 是 Hadoop 分布式文件系统(HDFS)的一个重要组件。它定义了数据节点(Datanode)与名称节点(Namenode)之间的通信协议,主要负责数据节点的注册、心跳检测、块报告等功能。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
DatanodeProtocolClientSideTranslatorPB类源码分析:
DatanodeProtocolClientSideTranslatorPB类是Hadoop中DataNode的客户端协议类,它实现了DatanodeProtocol接口,提供了DataNode与NameNode之间通信的方法。
在这里插入图片描述

BPOfferService类源码分析:

在DataNode的源码中,心跳机制的实现是通过一个名为BPServiceActor的类来完成的。这个类包含了若干个属性和方法,用于维护DataNode的状态,并向NameNode发送心跳信息。在NameNode的源码中,心跳机制的实现是通过一个名为BlockPoolManager的类来完成的。这个类包含了若干个属性和方法,用于维护NameNode的状态,并接收来自DataNode的心跳信息。
BPOfferService是DataNode的核心组件之一,负责与NameNode进行通信,并执行一些DataNode的操作,如生成块报告、缓存报告、发送心跳消息等。通过与NameNode的协作,BPOfferService可以帮助DataNode管理存储池,确保数据的可靠性和可用性。

源码如下:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.心跳的接收

NameNode会在接收到来自数据节点的心跳消息后更新其状态信息。在Hadoop的源代码中,NameNode的心跳处理代码由BPServiceActor和BPServiceActorActionHandler类处理。当NameNode接收到来自数据节点的心跳消息时,它会解码消息并更新数据节点的状态信息。如果NameNode在一段时间内未接收到该数据节点的心跳,则认为该数据节点已离线,并将其标记为离线状态。
BPServiceActor类源码分析:
BPServiceActor是Hadoop分布式文件系统(HDFS)中的一个类,它负责DataNode与NameNode之间的通信和协议处理。它实现了DatanodeProtocol接口中定义的所有方法,包括块报告、块接收和删除、错误报告、版本请求、损坏块报告和块同步等操作。它的主要作用可以总结为以下几点:
1.实现DatanodeProtocol接口,处理与NameNode之间的通信:BPServiceActor实现了DatanodeProtocol接口,处理DataNode与NameNode之间的通信。它负责处理块汇报、块复制、块恢复、心跳等操作,并将结果返回给NameNode。
2.处理DataNode与NameNode之间的心跳:BPServiceActor包含一个线程,定期向NameNode发送心跳,以表明DataNode仍然处于活动状态。如果NameNode在一定时间内没有收到DataNode的心跳,则认为该DataNode已经失效,将其从集群中删除。
3.处理块汇报、块复制、块恢复等操作:BPServiceActor处理DataNode与NameNode之间的块汇报、块复制、块恢复等操作。当DataNode收到块汇报请求时,BPServiceActor会向NameNode报告其拥有的块信息。当DataNode收到块复制或块恢复请求时,BPServiceActor会协调DataNode之间的块传输,以确保块的可靠性和一致性。
4.维护DataNode与NameNode之间的状态同步:BPServiceActor负责维护DataNode与NameNode之间的状态同步,以确保数据的完整性和可靠性。例如,在块复制过程中,BPServiceActor会协调DataNode之间的块传输,并通知NameNode块复制的状态,以确保数据的一致性和可靠性。

BPServiceActor源代码如下:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.心跳的频率

心跳的频率是在Hadoop的配置文件中配置的。默认情况下,数据节点每秒向NameNode发送一次心跳消息。这个频率可以通过调整Hadoop的配置文件中的dfs.heartbeat.interval属性进行更改。该属性指定了数据节点向NameNode发送心跳消息的时间间隔(以毫秒为单位)。
总之,Hadoop的心跳机制的核心代码位于NameNodeRpcServer类和BPServiceActor类中。
1.在NameNodeRpcServer.java文件中,可以找到NameNode的心跳机制代码,它通过定期向各个DataNode发送心跳信息,并检查它们的状态和可用性。

NameNodeRpcServer类源码分析:

在这里插入图片描述
在这里插入图片描述
2.BPServiceActor类是Hadoop中负责管理块池的服务类,它也定期向NameNode发送心跳消息以保持与NameNode的联系。
BPServiceActor源码如下(上面截图有讲解):

  /**
   * Main loop for each BP thread. Run until shutdown,
   * forever calling remote NameNode functions.
   */
每个BP /线程的主循环。运行至关机;永远调用远程NameÑade函数。
  private void offerService() throws Exception {
    LOG.info("For namenode " + nnAddr + " using"
        + " DELETEREPORT_INTERVAL of " + dnConf.deleteReportInterval + " msec "
        + " BLOCKREPORT_INTERVAL of " + dnConf.blockReportInterval + "msec"
        + " CACHEREPORT_INTERVAL of " + dnConf.cacheReportInterval + "msec"
        + " Initial delay: " + dnConf.initialBlockReportDelay + "msec"
        + "; heartBeatInterval=" + dnConf.heartBeatInterval);

    //
    // Now loop for a long time....
    // 现在循环很长时间....
    while (shouldRun()) {
      try {
        final long startTime = scheduler.monotonicNow();

        //
        // Every so often, send heartbeat or block-report
        // 每隔一段时间,发送心跳或阻塞报告
        final boolean sendHeartbeat = scheduler.isHeartbeatDue(startTime);
        if (sendHeartbeat) {
          //
          // All heartbeat messages include following info:
          // -- Datanode name
          // -- data transfer port
          // -- Total capacity
          // -- Bytes remaining
          //所有心跳消息包括以下信息:
Datanode的名字数据
传输端口
总容量
剩余字节数
          if (!dn.areHeartbeatsDisabledForTests()) {
            HeartbeatResponse resp = sendHeartBeat();
            assert resp != null;
            dn.getMetrics().addHeartbeat(scheduler.monotonicNow() - startTime);

            // If the state of this NN has changed (eg STANDBY->ACTIVE)
            // then let the BPOfferService update itself.
            //
            // Important that this happens before processCommand below,
            // since the first heartbeat to a new active might have commands
            // that we should actually process.
如果这个神经网络的状态发生了变化(例如VE)然后让BPOfferService更新自己。重要的是,这发生在processCommand之前因为第一次心跳到一个新的活动可能有我们应该处理。
            bpos.updateActorStatesFromHeartbeat(
                this, resp.getNameNodeHaState());
            state = resp.getNameNodeHaState().getState();

            if (state == HAServiceState.ACTIVE) {
              handleRollingUpgradeStatus(resp);
            }

            long startProcessCommands = monotonicNow();
            if (!processCommand(resp.getCommands()))
              continue;
            long endProcessCommands = monotonicNow();
            if (endProcessCommands - startProcessCommands > 2000) {
              LOG.info("Took " + (endProcessCommands - startProcessCommands)
                  + "ms to process " + resp.getCommands().length
                  + " commands from NN");
            }
          }
        }
        if (sendImmediateIBR ||
            (startTime - lastDeletedReport > dnConf.deleteReportInterval)) {
          reportReceivedDeletedBlocks();
          lastDeletedReport = startTime;
        }

        List<DatanodeCommand> cmds = blockReport();
        processCommand(cmds == null ? null : cmds.toArray(new DatanodeCommand[cmds.size()]));

        DatanodeCommand cmd = cacheReport();
        processCommand(new DatanodeCommand[]{ cmd });

        //
        // There is no work to do;  sleep until hearbeat timer elapses, 
        // or work arrives, and then iterate again.
        //
//没有工作可做;睡到心跳计时器流逝,
//或工作到达,然后再次迭代。
        long waitTime = scheduler.getHeartbeatWaitTime();
        synchronized(pendingIncrementalBRperStorage) {
          if (waitTime > 0 && !sendImmediateIBR) {
            try {
              pendingIncrementalBRperStorage.wait(waitTime);
            } catch (InterruptedException ie) {
              LOG.warn("BPOfferService for " + this + " interrupted");
            }
          }
        } // synchronized同步
      } catch(RemoteException re) {
        String reClass = re.getClassName();
        if (UnregisteredNodeException.class.getName().equals(reClass) ||
            DisallowedDatanodeException.class.getName().equals(reClass) ||
            IncorrectVersionException.class.getName().equals(reClass)) {
          LOG.warn(this + " is shutting down", re);
          shouldServiceRun = false;
          return;
        }
        LOG.warn("RemoteException in offerService", re);
        try {
          long sleepTime = Math.min(1000, dnConf.heartBeatInterval);
          Thread.sleep(sleepTime);
        } catch (InterruptedException ie) {
          Thread.currentThread().interrupt();
        }
      } catch (IOException e) {
        LOG.warn("IOException in offerService", e);
      }
      processQueueMessages();
    } // while (shouldRun())
  } // offerService

Hadoop的心跳机制是通过数据节点向NameNode发送心跳消息,以汇报状态信息并保持通信。NameNode会定期接收来自数据节点的心跳消息,并根据消息更新数据节点的状态信息。通过心跳机制,Hadoop可以监控数据节点的状态,并检测到节点的故障或离线状态。
DataNode和NameNode讨论完了,接下来我们讨论ResourceManager和NodeManager之间的心跳机制,
在Hadoop中,NodeManager和ResourceManager之间也会进行心跳机制,以维护它们之间的联系,确保NodeManager的状态和可用资源得到更新和反馈。
NodeManager通过发送心跳消息向ResourceManager报告它的状态和可用资源。心跳消息主要包括NodeManager的状态、可用内存、CPU、磁盘、网络等资源的使用情况以及NodeManager上正在运行的容器信息等。发送心跳消息是通过一个独立的线程来完成的,可以在yarn-site.xml文件中通过yarn.nodemanager.heartbeat.interval-ms属性进行配置,默认时间间隔为1秒。

RMNodeImpl类源码分析:

RMNodeImpl是Apache Hadoop YARN中一个重要的类,用于维护NodeManager节点的状态信息。它实现了YARN中的NodeManager和ResourceManager之间的通信协议,能够处理各种节点状态变化事件,如节点启动、停止、资源更新等。下面从源码的角度分析RMNodeImpl的部分代码。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
总结RMNodeImpl类:RMNodeImpl类是YARN中用于维护节点状态信息的实现类,它实现了RMNode接口和EventHandler接口。该类中包含了节点的各种属性信息,例如节点的ID、资源信息、健康状态、容器信息等。同时,它也包含了一些方法来处理节点上的应用程序和容器的状态变化,例如处理容器状态更新、处理容器启动和关闭、发送心跳等。以下是RMNodeImpl类的一些特点:
多线程操作的同步处理:RMNodeImpl类中的各个方法都涉及到多线程操作,需要进行同步处理。它使用了读写锁来保证线程安全和数据一致性,同时还有一些其他的同步机制,例如使用ConcurrentLinkedQueue来保存节点状态的更新信息。
事件驱动的状态机模型:RMNodeImpl类中使用了事件驱动的状态机模型来处理节点状态的转换和事件的处理。该类中实现了多个状态转换方法,例如从“NEW”状态转换到“RUNNING”状态、从“RUNNING”状态转换到“UNHEALTHY”状态等。每个状态转换方法都根据当前状态和事件来执行相应的转换逻辑,并触发相应的事件来处理状态变化后的行为。
代码的可读性和可维护性:RMNodeImpl类中的代码结构清晰,注释详细,命名规范,符合Java编码规范。该类中的属性和方法都具有良好的语义和可读性,这有助于代码的阅读和理解,并且方便后续的维护和修改。
对容器的维护和管理:RMNodeImpl类中的一些方法用于维护和管理节点上的容器,例如记录容器状态的变化、维护容器的启动和关闭、处理容器的状态更新等。这些方法可以用于ResourceManager的调度决策,以及NodeManager的资源管理和容器管理。
对节点的心跳和资源管理:RMNodeImpl类中的一些方法用于发送节点的心跳和管理节点的资源,例如发送心跳、更新节点资源、处理节点上的容器等。这些方法可以用于保持节点和ResourceManager之间的通信,并且确保节点上的资源得到合理的分配和利用。
总的来说,NodeManager和ResourceManager之间的心跳机制是通过NodeManager向ResourceManager发送心跳消息并等待ResourceManager的响应来实现的。这些心跳消息包含了NodeManager的状态和可用资源信息,并且通过心跳消息,NodeManager和ResourceManager可以保持联系,确保节点状态的正确性和健康性。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值