Hadoop学习之原理理解

hadoop 介绍

参考
参考博客
Hadoop是一个开源框架,它允许在整个集群使用简单编程模型计算机的分布式环境存储并处理大数据。它的目的是从单一的服务器到上千台机器的扩展,每一个台机都可以提供本地计算和存储。

大数据是什么

大数据包括通过不同的设备和应用程序所产生的数据。包括社交媒体、证券交易、交通信息和搜索引擎数据。
因此,大数据包括体积庞大,高流速和可扩展的各种数据。它的数据为三种类:
结构化数据:关系数据。
半结构化数据:XML数据。
非结构化数据:Word, PDF, 文本,媒体日 志。

Hadoop 架构

Hadoop是使用Java编写,允许分布在集群,使用简单的编程模型的计算机大型数据集处理的Apache的开源框架。 Hadoop框架应用工程提供跨计算机集群的分布式存储和计算的环境。 Hadoop是专为从单一服务器到上千台机器扩展,每个机器都可以提供本地计算和存储。
在其核心,Hadoop主要有两个核心,即: 加工/计算层(MapReduce),以及 存储层(Hadoop分布式文件系统),我此外还加了资源调度(Yran)认为它对资源的调度相当于一个管理者。

HdFS

HDFS是一个高度容错性的分布式文件系统,可以被广泛的部署于廉价的PC上。它以流式访问模式访问应用程序的数据,这大大提高了整个系统的数据吞吐量,因而非常适合用于具有超大数据集的应用程序中。
HDFS的架构如图所示。HDFS架构采用主从架构(master/slave)。一个典型的HDFS集群包含一个NameNode节点和多个DataNode节点。NameNode节点负责整个HDFS文件系统中的文件的元数据的保管和管理,集群中通常只有一台机器上运行NameNode实例,DataNode节点保存文件中的数据,集群中的机器分别运行一个DataNode实例。在HDFS中,NameNode节点被称为名称节点,DataNode节点被称为数据节点。DataNode节点通过心跳机制与NameNode节点进行定时的通信。
HDFS
NameNode 相当于老总,DataNode相当于工人,NameNode 给DataNode分配活,让你干啥你就干啥。client为获取分布式系统文件的应用程序,感觉像包工头拉项目的。
client 拉回来项目请求老总NameNode分配活干啥,分完再交给苦力。。。

Map-reduce

Mapreduce

Map端:
1.每个输入分片会让一个map任务来处理,默认情况下,以HDFS的一个块的大小(默认为64M)为一个分片,当然我们也可以设置块的大小。map输出的结果会暂且放在一个环形内存缓冲区中(该缓冲区的大小默认为100M,由io.sort.mb属性控制),当该缓冲区快要溢出时(默认为缓冲区大小的80%,由io.sort.spill.percent属性控制),会在本地文件系统中创建一个溢出文件,将该缓冲区中的数据写入这个文件。
2.在写入磁盘之前,线程首先根据reduce任务的数目将数据划分为相同数目的分区,也就是一个reduce任务对应一个分区的数据。这样做是为了避免有些reduce任务分配到大量数据,而有些reduce任务却分到很少数据,甚至没有分到数据的尴尬局面。其实分区就是对数据进行hash的过程。然后对每个分区中的数据进行排序,如果此时设置了Combiner,将排序后的结果进行Combia操作,这样做的目的是让尽可能少的数据写入到磁盘。
3.当map任务输出最后一个记录时,可能会有很多的溢出文件,这时需要将这些文件合并。合并的过程中会不断地进行排序和combia操作,目的有两个:1.尽量减少每次写入磁盘的数据量;2.尽量减少下一复制阶段网络传输的数据量。最后合并成了一个已分区且已排序的文件。为了减少网络传输的数据量,这里可以将数据压缩,只要将mapred.compress.map.out设置为true就可以了。

4.将分区中的数据拷贝给相对应的reduce任务。有人可能会问:分区中的数据怎么知道它对应的reduce是哪个呢?其实map任务一直和其父TaskTracker保持联系,而TaskTracker又一直和JobTracker保持心跳。所以JobTracker中保存了整个集群中的宏观信息。只要reduce任务向JobTracker获取对应的map输出位置就ok了哦。

Reduce端:

1.Reduce会接收到不同map任务传来的数据,并且每个map传来的数据都是有序的。如果reduce端接受的数据量相当小,则直接存储在内存中(缓冲区大小由mapred.job.shuffle.input.buffer.percent属性控制,表示用作此用途的堆空间的百分比),如果数据量超过了该缓冲区大小的一定比例(由mapred.job.shuffle.merge.percent决定),则对数据合并后溢写到磁盘中。

2.随着溢写文件的增多,后台线程会将它们合并成一个更大的有序的文件,这样做是为了给后面的合并节省时间。其实不管在map端还是reduce端,MapReduce都是反复地执行排序,合并操作,现在终于明白了有些人为什么会说:排序是hadoop的灵魂。

3.合并的过程中会产生许多的中间文件(写入磁盘了),但MapReduce会让写入磁盘的数据尽可能地少,并且最后一次合并的结果并没有写入磁盘,而是直接输入到reduce函数。

参考:https://blog.csdn.net/yybk426/article/details/76601921

Hadoop 如何工作

集群机可以平行读取数据集,并提供一个高得多的吞吐量。此外,这样便宜不到一个高端服务器价格。因此使用Hadoop跨越集群和低成本的机器上运行是一个不错不选择。

  • 数据最初分为目录和文件。文件分为128M和64M(128M最好)统一大小块。
  • 然后这些文件被分布在不同的群集节点,以便进一步处理。
  • HDFS,本地文件系统的顶端﹑监管处理。
  • 块复制处理硬件故障。
  • 检查代码已成功执行。
  • 执行发生map,reduce阶段的排序。
  • 发送排序的数据到某一计算机
  • 为每个作业编写的调试日志。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop是一个开源的分布式计算框架,它的核心是HDFS和MapReduceHadoop技术方法原理的核心是将大数据分割成多个小数据块,然后分发到多个节点上进行并行处理,最后将结果汇总返回。具体来说,其原理包括以下几个方面: 1. HDFS原理:HDFS是Hadoop分布式文件系统,它将大文件分割成多个数据块,然后存储在不同的节点上。这样做的好处是可以提高文件读写的效率,同时也可以提高数据的可靠性,因为数据块会被多个节点备份。 2. MapReduce原理MapReduceHadoop的核心计算框架,它将任务分成两个阶段:MapReduce。在Map阶段,任务被分成多个小任务,然后在不同的节点上并行处理,生成中间结果。在Reduce阶段,中间结果被合并成最终结果。这种分布式计算方式可以提高计算效率,同时也可以支持大规模数据的处理。 3. YARN原理:YARN是Hadoop的资源管理框架,它负责管理集群中的资源。YARN可以根据任务的需求,分配合适的资源给不同的任务,从而提高集群的资源利用率。 4. Hadoop生态系统:除了上述核心组件,Hadoop还有很多其他的组件,比如HBase、Hive、Pig、Spark等等。这些组件可以为Hadoop提供更多的功能,如实时查询、数据分析、机器学习等等。 总之,Hadoop技术方法原理的核心是将大数据分割成多个小数据块,然后在不同的节点上并行处理,最后将结果汇总返回。这种分布式计算方式可以大大提高数据处理和计算的效率,同时也可以提高数据的可靠性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值