第九第十 hdfs的读写流程&mapreduce流程入门

第九天课程–hdfs工作机制:

课程大纲

  1. HDFS工作机制:
    NameNode负责文件系统的元数据;DataNode负责管理具体文件数据块存储;SecondaryNameNode协助NameNode进行元数据备份。
    HDFS内部机制对客户端保持透明;客户端请求访问HDFS都是通过向NameNode申请来进行。
  2. mapreduce思想:分而治之
    map负责分,把复杂的任务分解为若干个简单的任务来并行处理。前提是,这些任务可以并行计算,彼此间没有依赖。
    reduce负责合:对map阶段的结果进行汇总。

HDFS 工作机制–上传文件写数据流程

在这里插入图片描述

  1. 上图为HDFS结构图
  2. 如何寻找datanode
    1、如果客户端所在的机器正好有空闲并且健康的dn,则第一块数据放在这个dn。否则,选择网络拓扑距离(交换机)最短的dn。
    2、同机架不同机器找一个。
    3、不同机架随机找一个。
    4、如果副本不是3,第一个按照规则,其他的随机寻找dn。
  3. 下图为上传文件写数据流程
    blk1的本身以及它的备份先传输完再进行blk2的传输。在这里插入图片描述

HDFS 工作机制–下载文件读数据流程

在这里插入图片描述1. 客户端并行下载数据,如图中的第三步。

HDFS 工作机制–nn dn核心概述

  1. 如果namenode挂了,hdfs也挂了。
  2. dn跟nn之间的汇报
    1、集群刚启动的时候,dn要汇报一次
    首先dn报告自己启动成功,汇报自己的现有块
    2、当集群正常运行后
    每隔3s通过心跳报告自己是否活着
    每隔六小时汇报自己的现有块

HDFS java操作(了解)

开发环境构建–FileSystem类
注意身份&注意winUtilsexe

  1. java开发hdfs:客户端身份权限。
    更加底层Stream的形式访问

HDFS 案例–了解shell采集数据到hdfs

第十天课程:入门mapreduce

深刻理解MapReduce思想–先分再合

  1. 分而治之
  2. Map 负责分,即把复杂的任务分解为若干个“简单的任务”来并行处理。 可以进行拆分的前提是这些小任务可以并行计算,彼此间几乎没有依赖关系。
    Reduce 负责“合,即对 map 阶段的结果进行全局汇总。

如何实现mapreduce计算

在这里插入图片描述

mapreduce设计构思

在这里插入图片描述
在这里插入图片描述

  1. Map: 对一组数据元素进行某种重复式的处理;
    Reduce: 对 Map 的中间结果进行某种进一步的结果整理。
  2. map: (k1; v1) → [(k2; v2)]
    reduce: (k2; [v2]) → [(k3; v3)]
    Map 和 Reduce 为程序员提供了一个清晰的操作接口抽象描述。通过以上两
    个编程接口,大家可以看出 MapReduce 处理的数据类型是<key,value>键值对。

mapreduce–java语言单词统计

一个完整的 mapreduce 程序在分布式运行时有三类实例进程:
1、MRAppMaster:负责整个程序的过程调度及状态协调
2、MapTask:负责 map 阶段的整个数据处理流程
3、ReduceTask:负责 reduce 阶段的整个数据处理流程

  1. 需求:
    待处理的数据目录 /wordcount/input 1.txt 2.txt
    统计这个目录下所有文件中每个单词出现的总次数
    在这里插入图片描述

课程总结

1、namenode是老大
2、HDFS读写数据流程重要

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
HDFS(Hadoop Distributed File System)是Hadoop生态系统的一部分,它是一个可伸缩的分布式文件系统,可以在大型集群存储和处理超大型数据集。下面是HDFS读写流程和原理: 1. 写入流程 (1)客户端向NameNode请求写入文件,NameNode返回一个DataNode列表,客户端接收到后与DataNode进行数据通信。 (2)客户端将数据划分为一个个数据块,并与DataNode建立连接,将数据块写入DataNode。 (3)DataNode接收到数据块后,先将数据写入本地磁盘,然后将数据块复制到其他DataNode上,以实现数据备份。 (4)客户端在写入完数据后,向NameNode发送文件元数据,即文件名、数据块ID、数据块所在的DataNode等信息,NameNode将这些信息保存在内存,并更新元数据信息。 2. 读取流程 (1)客户端向NameNode请求读取文件,NameNode返回一个DataNode列表和对应的数据块位置信息。 (2)客户端与DataNode建立连接,请求数据块,DataNode将数据块返回给客户端。 (3)客户端读取完所有数据块后,将数据块组合成完整的文件。 HDFS的主要原理是数据分片和复制。HDFS将大文件划分为多个数据块,每个数据块默认大小为128MB,每个数据块会复制到多个DataNode上,以实现数据备份和容错。NameNode负责管理文件系统的元数据,包括文件名、文件目录、数据块位置等信息,而DataNode则负责数据块的存储和读写。这种分布式存储方式可以实现高可用性和高可靠性,并且可以通过增加DataNode数量来提高存储和读写性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

王二小、

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值