Hadoop知识重点总结

本文详细介绍了Hadoop的HDFS架构,包括NameNode与DataNode的功能划分、读写流程,以及HDFS高可用(HA)的实现。此外,还涵盖了Hadoop的MapReduce工作原理和HDFS的元数据管理。HDFS的写数据流程包括客户端与NameNode交互、建立DataNode的pipeline、数据包传输与确认。读数据流程涉及客户端从NameNode获取DataNode地址、按距离排序并读取数据。HDFS的元数据管理通过fsimage和edits文件进行,而HDFS HA则依赖ZKFailoverController和HealthMonitor等组件。MapReduce包括Driver、Input、Mapper、Reducer和Output五个阶段,每个阶段都有其特定功能。最后,文章提到了YARN的架构和调度器,包括FIFO、Capacity Scheduler和Fair Scheduler的工作方式。
摘要由CSDN通过智能技术生成

Hadoop重点

  • HDFS

  • 读写流程

    • 写数据流程

      1、client发起文件上传请求,通过RPC与NameNode建立通讯,NameNode检查目标文件是否已存在,父目录是否存在,返回是否可以上传;

      2、client请求第一个 block该传输到哪些DataNode服务器上;

      3、NameNode根据配置文件中指定的备份数量及副本放置策略进行文件分配,返回可用的DataNode的地址,如:A,B,C;

      4、client请求3台DataNode中的一台A上传数据(本质上是一个RPC调用,建立pipeline),A收到请求会继续调用B,然后B调用C,将整个pipeline建立完成,后逐级返回client;

      5、client开始往A上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位(默认64K),A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答。

      6、数据被分割成一个个packet数据包在pipeline上依次传输,在pipeline反方向上,逐个发送ack(命令正确应答),最终由pipeline中第一个DataNode节点A将pipeline ack发送给client;

      7、当一个block传输完成之后,client再次请求NameNode上传第二个block到服务器。

    • 读数据流程

      1、Client向NameNode发起RPC请求,来确定请求文件block所在的位置;

      2、NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode都会返回含有该block副本的DataNode地址;

      3、这些返回的DN地址,会按照集群拓扑结构得出DataNode与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离Client近的排靠前;心跳机制中超时汇报的DN状态为STALE,这样的排靠后;

      4、Client选取排序靠前的DataNode来读取block,如果客户端本身就是DataNode,那么将从本地直接获取数据;底层上本质是建立Socket Stream(FSDataInputStream),重复的调用父类DataInputStream的read方法,直到这个块上的数据读取完毕;

      5、当读完列表的block后,若文件读取还没有结束,客户端会继续向NameNode获取下一批的block列表;

      6、读取完一个block都会进行checksum验证,如果读取DataNode时出现错误,客户端会通知NameNode,然后再从下一个拥有该block副本的DataNode继续读。

      7、read方法是并行的读取block信息,不是一块一块的读取;NameNode只是返回Client请求包含块的DataNode地址,并不是返回请求块的数据;

      最终读取来所有的block会合并成一个完整的最终文件。

HDFS架构:NameNode与DataNode的功能划分

  • NameNode

    1:管理集群:DataNode

    2:管理元数据

    3:接收客户端的读写请求

  • DataNode

    1:存放具体的数据

    2:执行具体的读写操作

    3:定时向Namenode汇报block信息(心跳机制)

  • SecondaryNameNode功能
    • 1.辅助NameNode分担其工作量
    • 2.定期合并fsimage和fsedits并推送给NameNode
    • 3.在紧急情况下辅助恢复NameNode
  • 分布式机制
  • 分块

    每一个文件会被切分成多个block进行存储

  • 副本

    每一个block默认有三个副本,这个参数模式是可以在hdfs-site.xml中进行配置

    每一个block默认是128M,这个参数也可以在hdfs-site.xml中配置

  • 元数据管理

    fsimage:镜像文件(一个小时之前的镜像)

    edits:记录一段时间内对元数据所有操作(一个小时内的操作)

    SecondaryNameNode:当满足以下两个条件中的任意条件时:合并fsimage和edits

    1.间隔一小时

    2.edits文件大小超过64M

    合并成为一个新的fsimage替换旧的fsimage

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值