DADOOP集群HDFS工作机制

64人阅读 评论(0) 收藏 举报
分类:

hdfs的工作机制

概述

1.        HDFS集群分为两大角色:NameNodeDataNode  (Secondary Namenode)

2.        NameNode负责管理整个文件系统的元数据

3.        DataNode 负责管理用户的文件数据块

4.        文件会按照固定的大小(blocksize)切成若干块后分布式存储在若干台datanode

5.        每一个文件块可以有多个副本,并存放在不同的datanode

6.        Datanode会定期向Namenode汇报自身所保存的文件block信息,而namenode则会负责保持文件的副本数量

7.        HDFS的内部工作机制对客户端保持透明,客户端请求访问HDFS都是通过向namenode申请来进行


1、写数据流程

1.1 概述

客户端要向HDFS写数据,首先要跟namenode通信以确认可以写文件并获得接收文件block的datanode,然后,客户端按顺序将文件逐个block传递给相应datanode,并由接收到block的datanode负责向其他datanode复制block的副本

1.2 详细步骤图

1.3 详细步骤解析

1、根namenode通信请求上传文件,namenode检查目标文件是否已存在,父目录是否存在

2namenode返回是否可以上传

3client请求第一个 block该传输到哪些datanode服务器上

4namenode返回3datanode服务器ABC

5client请求3dn中的一台A上传数据(本质上是一个RPC调用,建立pipeline),A收到请求会继续调用B,然后B调用C,将真个pipeline建立完成,逐级返回客户端

6client开始往A上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,A收到一个packet就会传给BB传给CA每传一个packet会放入一个应答队列等待应答

7、当一个block传输完成之后,client再次请求namenode上传第二个block的服务器。



HDFS写数据工作流程

1、 HDFS客户端想DataNode请求上传文件,并提交个上传目录:/aaa/1.txt
2、相应请求,查询文件目录是否存在,同时要查询文件是否存在,假设满足条件:响应,可以上传
3、HDFS客户端继续发送rpc请求上传第一个block,调元数据系统的业务方法,请求返回DataNode
4、namenode返回DataNode列表,DataNode考虑因素:DataNode的空间大小、距离客户端到DataNode的网络跳转机速,同一个路由器1级跳转,距离是一样的。不用机架也就是不同路由器,第一台距离近的,第二台距离远的不同机架,第三台和第一台一样同一个机架。
5、HDFS客户端向其中一个DataNode发送请求建立block传输通道channel
6、接受到HDFS请求的DataNode向其他的DataNode发送请求,建立block传输通道channel
7、接收到请求的DataNode应答成功,建立通道流PIPE LINE
8、HDFS客户端向DataNode写小数据包packet大小64k,同时DataNode写入其他的DataNode中,都是先写到缓存中,在写到文件。

注意:以chunk 512byte为单位校验一次。


2、HDFS读数据流程

2.1 概述

客户端将要读取的文件路径发送给namenode,namenode获取文件的元信息(主要是block的存放位置信息)返回给客户端,客户端根据返回的信息找到相应datanode逐个获取文件的block并在客户端本地进行数据追加合并从而获得整个文件

2.2 详细步骤图

 

2.3 详细步骤解析

1、跟namenode通信查询元数据,找到文件块所在的datanode服务器

2、挑选一台datanode(就近原则,然后随机)服务器,请求建立socket

3datanode开始发送数据(从磁盘里面读取数据放入流,以packet为单位来做校验)

4、客户端以packet为单位接收,现在本地缓存,然后写入目标文件

 


HDFS读数据工作流程
1、HDFS客户端向namenode发送请求下载文件
2、namenode向HDFS客户端返回目标文件的元数据信息
3、HDFS客户端向距离近的DataNode发送请求读数据 
4、建立nio socket通道socekoutputstream、socekinoutstream传输数据
5、获取第二个block,

查看评论

深刻理解HDFS工作机制

深入理解一个技术的工作机制是灵活运用和快速解决问题的根本方法,也是唯一途径。对于HDFS来说除了要明白它的应用场景和用法以及通用分布式架构之外更重要的是理解关键步骤的原理和实现细节。在看这篇博文之前需...
  • csao204282
  • csao204282
  • 2017-01-20 22:42:49
  • 1038

深刻理解HDFS工作原理

概述HDFS(Hadoop Distributed File System )Hadoop分布式文件系统的简称。HDFS被设计成适合运行在通用硬件(commodity hardware)上的分布式文件...
  • xiangzhihong8
  • xiangzhihong8
  • 2017-01-11 16:45:27
  • 3170

Hive及其工作机制简介

Hive是一个基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一个表。并提供类SQL查询功能。数据仓库数据库是用来支撑在线联机业务的。比如页面上的数据的展示,保存客户操作产生的数据。这...
  • mrbcy
  • mrbcy
  • 2017-03-22 22:34:57
  • 705

web服务器工作机制和服务器集群简介

如果想学好web服务器,那么了解web服务工作原理和优化是必须的。因为会安装网页只是初级,到最后随着流量的增加,网络的升级如何规划自己的服务器集群才是关键。 我们以apache服务器httpd为...
  • deansrk
  • deansrk
  • 2011-08-13 22:33:36
  • 4388

HDFS的运行原理,如何实现HDFS的高可用

1 HDFS的运行机制HDFS集群中的节点分为两种角色,一种角色负责管理整个集群的元数据,是名称节点(name node);另一种角色负责存储文件数据块和管理文件数据块,是数据节点(datanode)...
  • qq_31598113
  • qq_31598113
  • 2017-04-05 08:55:44
  • 3295

MapReduce工作机制参考

  • 2015年11月13日 17:37
  • 22.7MB
  • 下载

Hadoop学习(三)— hdfs : NameNode与DataNode的实现机制

一、NameNode的工作机制 二、DataNode的工作机制 三、HDFS在Java客户端编写
  • Tracker_wjw
  • Tracker_wjw
  • 2016-04-25 20:49:16
  • 2364

Hadoop入门-2.HDFS原理和工作机制(基于hadoop-2.7.3)

简介        Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件系统。它和现有的分布式文件系统有很多共同点。但同时,它和其他的...
  • qq342643414
  • qq342643414
  • 2017-02-28 15:37:30
  • 1065

HDFS QJM机制分析

前言上周写了一篇译文专门从结构设计的层面来分析HDFS的QJM机制,总体而言,文章偏重理论介绍.本文将继续围绕QJM机制展开分析,但是不同点在于,本文将会从更细粒度的层面来分析这套机制,帮助大家从源代...
  • Androidlushangderen
  • Androidlushangderen
  • 2016-08-27 17:45:07
  • 3189

hadoop 轻松时刻 hdfs漫画

hadoop漫画:
  • MrCharles
  • MrCharles
  • 2015-12-28 20:30:32
  • 1795
    个人资料
    持之以恒
    等级:
    访问量: 458
    积分: 241
    排名: 31万+
    文章存档