文件写入过程:
详细步骤:
1.client发起文件上传请求,通过rpc与namenode建立通讯,namenode检查目标文件是否存在,父目录是否存在,返回是否可以上传
2.click请求第一个block该传输到那些datenode服务器上
3.namenode根据配置文件将指定的备份数量以及机架感知进行文件分配,返回可用的dataname的地址
4.click请求三台datename中的一台上传数据,然后传给第二台,第三台,将整个pipeline建立完成,然后逐级返回client
5.click开始向第一台上传一个block,以packet为单位(64k),第一台收到后写入传给第二台,第二台写入然后给第三台,第三台写完,每传递一个都会放入一个应答队列等待应答
6.数据被分成一个一个小的packet数据包在pipeline上依次传输,在pipeline反方向上,逐个发送ack(命令正确应答),最终由pipeline中第一个DataNode节点A将pipelineack发送给client;
7.关闭写入流
8.当一个block传输完成之后,client再次请求NameNode上传第二个block到服务器。
HDFS文件读取流程
详细步骤:
1、客户端通过调用FileSystem对象的open()来读取希望打开的文件。
2、 Client向NameNode发起RPC请求,来确定请求文件block所在的位置;
3、 NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode 都会返回含有该 block 副本的 DataNode 地址; 这些返回的 DN 地址,会按照集群拓扑结构得出 DataNode 与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离 Client 近的排靠前;心跳机制中超时汇报的 DN 状态为 STALE,这样的排靠后;
4、 Client 选取排序靠前的 DataNode 来读取 block,如果客户端本身就是DataNode,那么将从本地直接获取数据(短路读取特性);
5、 底层上本质是建立 Socket Stream(FSDataInputStream),重复的调用父类 DataInputStream 的 read 方法,直到这个块上的数据读取完毕;
6、并行读取,若失败重新读取
7、 当读完列表的 block 后,若文件读取还没有结束,客户端会继续向NameNode 获取下一批的 block 列表;
8、返回后续block列表
9、 最终关闭读流,并将读取来所有的 block 会合并成一个完整的最终文件。
说明:
1、读取完一个 block 都会进行 checksum 验证,如果读取 DataNode 时出现错误,客户端会通知 NameNode,然后再从下一个拥有该 block 副本的DataNode 继续读。
2、read 方法是并行的读取 block 信息,不是一块一块的读取;NameNode 只是返回Client请求包含块的DataNode地址,并不是返回请求块的数据;