hadoop之hdfs(1)

基本原理:
采用的架构:Master/Slave主从架构,即一个hdfs包含一个逻辑上的单独的master节点(实际上可以包含多个物理主机或者备用机)和多个slave节点服务器.


主节点:NameNode
NameNode负责保存和管理所有的HDFS元数据
从节点:DataNode
DataNode:通过一个个Block把文件保存在本地硬盘上需要定时向 Namenode 汇报自己持有的 block
信息
HDFS 写数据流程:

        1.client 通过 RPC 与 NameNode 建立通讯发起文件上传请求然后NameNode
    检查目标文件,父目录(hdfs无法覆盖已存在目录或者文件)是否已存在返回结果
        2.接到文件不存在反馈,请求第一个NameNode, block 该传输到哪些 DataNode 服务器上
        3,NameNode 根据配置文件中指定的备份数量及机架感知原理进行文件分
    配返回可用的 DataNode 的地址如:A,B,C
    4、 client 请求 3 台 DataNode 中的一台 A 上传数据(本质上是一个 RPC 调
    用,建立 pipeline),A 收到请求会继续调用 B,然后 B 调用 C,将整个
    pipeline 建立完成,后逐级返回 client;
    5、 client 开始往 A 上传第一个 block(先从磁盘读取数据放到一个本地内
    存缓存),以 packet 为单位(默认 64K),A 收到一个 packet 就会传给 B,
    B 传给 C;A 每传一个 packet 会放入一个应答队列等待应答。
    6、 数据被分割成一个个 packet 数据包在 pipeline 上依次传输,在
    pipeline 反方向上,逐个发送 ack(命令正确应答),最终由 pipeline
    中第一个 DataNode 节点 A 将 pipeline ack 发送给 client;
    7、 当一个 block 传输完成之后,client 再次请求 NameNode 上传第二个
    block 到服务器

HDFS 读数据流程

    1、 Client 向 NameNode 发起 RPC 请求,来确定请求文件 block 所在的位置;
    2、 NameNode会视情况返回文件的部分或者全部block列表,对于每个block,
    NameNode 都会返回含有该 block 副本的 DataNode 地址;
    3、 这些返回的 DN 地址,会按照集群拓扑结构得出 DataNode 与客户端的距
    离,然后进行排序,排序两个规则:网络拓扑结构中距离 Client 近的排
    靠前;心跳机制中超时汇报的 DN 状态为 STALE,这样的排靠后;
    4、 Client 选取排序靠前的 DataNode 来读取 block,如果客户端本身就是
    DataNode,那么将从本地直接获取数据;
    5、 底层上本质是建立 Socket Stream(FSDataInputStream),重复的调用
    父类 DataInputStream 的 read 方法,直到这个块上的数据读取完毕;
    6、 当读完列表的 block 后,若文件读取还没有结束,客户端会继续向
    NameNode 获取下一批的 block 列表;
    7、 读取完一个 block 都会进行 checksum 验证,如果读取 DataNode 时出现
    错误,客户端会通知 NameNode,然后再从下一个拥有该 block 副本的
    DataNode 继续读。
    8、 read 方法是并行的读取 block 信息,不是一块一块的读取;NameNode 只
    是返回Client请求包含块的DataNode地址,并不是返回请求块的数据;
    9、 最终读取来所有的 block 会合并成一个完整的最终文件。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值