Hadoop 学习总结

一、HDFS

一、HDFS的基本概念

  HDFS:Hadoop Distributed File System ,Hadoop分布式文件系统。主要用来解决海量数据的存储问题。

 

二、HDFS的写文件过程

首先我要将一个文件存到HDFS集群中。

  1. 客户端通过RPC(远程服务)访问NameNode,请求写入一个文件。
  2. NameNode检查客户端是否有权限写入,如果有权限返回一个响应。如果没有客户端就会抛出一个异常。
  3. 客户端会将文件按BlckSize大小(默认128M)将文件切分成一个一个Block块,然后请求写入第一个Block块。
  4. NameNode会根据它的负载均衡机制,给客户端返回满足其副本数量(默认是3)的列表(BlockId:主机,端口号,存放的目录)。
  5. 客户端根据返回的列表,开始建立管道(pipeline)。客户端->第一个节点->第二个节点->第三个节点。
  6. 开始传输数据,Block按照Packet一次传输,当一个Packet成功传输到第一个DataNode上以后,第一个DodaNode就把这个Packet开始进行复制,并将这个Packet通过管道传输到下一个DataNode上,下一个DataNode接收到Packet后,继续进行复制,再传输到下一个DataNode上。
  7. 当一个Block块成功传输完以后,从最后一个DataNode开始,依次从管道返回ACK队列,到客户端。
  8. 客户端会在自己内部维护着一个ACK队列,跟返回来的ACK队列进行匹配,只要有一台DataNode写成功,就认为这次写操作是完成的。
  9. 开始进行下一个Block块的写入。重复3-8。

如果在传输的时候,有的DataNode宕机了,这个DataNode就会从这个管道中退出。剩下的DataNode继续传输。然后,等传输完成以后,NameNode会再分发出一个节点,去写成功的DataNode上复制出一份Block块,写到新的DataNode上。

 

三、HDFS的读文件过程

 

  1. 客户端向NameNode通过RPC发送读请求。
  2. NameNode确认客户端是否有读权限,如果有,给客户端返回一个响应,如果没有,客户端抛出一个异常。
  3. 客户端向NameNode请求需要读取的文件。
  4. NameNode返回存储此文件的每个Block块所在的位置的列表。
  5. 客户端会从返回的列表中挑选一台最近的,建立连接,读取Block块。读取的时候会将Block块统计目录下的校验信息,一起读取过来。
  6. 客户端读取完Block块信息以后,会计算出一个校验和跟读取过来的校验和进行对比,如果能匹配上,就说明正确。如果匹配不上,就从其他节点上读取Block块。

 

二、MapReduce

一、MapReduce的基本概念

  MapReduce是一种分布式计算模型,由Google提出,主要用于搜索领域,解决海量数据的计算问题。MR由两个阶段组成:Map和Reduce,用户只需要实现map()

和reduce()两个函数,即可实现分布式计算。这两个函数的形参是key、value对,表示函数的输入信息。下面是MR的执行流程:

 1、Map任务

   ① 读取输入文件内容,解析成key、value对儿。对输入文件的每一行,解析成  key、value对。每一个键值对调用一次map函数。

        ② 写自己的逻辑,对输入的key、value处理,转换成新的key、value输出

        ③ 对输出的key、value进行分区

        ④ 对不同分区的数据,按照key进行排序、分组。相同key的value放到一个集合中.

        ⑤ (可选)分组后的数据进行归约

2、Reduce任务

   ① 对多个map任务的输出,按照不同的分区,通过网络copy到不同的reduce 节点。

        ② 对多个map任务的输出进行合并、排序。写reduce函数增加自己的逻辑,对输入的key、value处理,转换成新的key、value输出。

        ③ 把reduce的输出保存到文件中

 

二、WordCount的程序

  程序的功能:假设现在有个test文本,WordCount程序就是利用MR计算模型来统计这个文本中每个单词出现的总次数。

 

  那么实现原理就是:MapTask中的map方法对我们的每一行数据进行处理。然后ReduceTask把相同key的归为一组,每组调用一个reduce的方法去处理!

 代码如下:

 

 1 public class WordCountTest {
 2     // KEYIN   每一行数据的起始位置,行偏移量
 3     // VALUEIN 每一行数据
 4     // KEYOUT  map端输出数据中key的类型
 5     // VALUEOUT map端输出数据中value的类型
 6     public static class WCMapper extends Mapper<LongWritable, Text, Text, IntWritable> {
 7         // key    行偏移量
 8         // value  每行的数据
 9         // context  上下文,就是将我们map处理完以后的数据,发送出去。
10         @Override
11         protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
12             String[] words = value.toString().split(" ");
13             for (String word : words) {
14                 context.write(new Text(word), new IntWritable(1));
15             }
16         }
17     }
18     // KEYIN  reduce端接受数据中key的类型
19     // VALUEIN  reduce端接受数据中value的类型
20     // KEYOUT   reduce端输出数据中key的类型
21     // VALUEOUT  reduce端输出数据中value的类型
22     public static class WCReducer extends Reducer<Text, IntWritable, Text, IntWritable> {
23         // key  就是reduce端接受数据中map的类型
24         // values  相同key的value集合
25         // context  上下文,就是将我们reduce处理完以后的数据,发送出去。
26         protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
27             int sum = 0;
28             for (IntWritable value : values) {
29                 sum += value.get();
30             }
31             context.write(key, new IntWritable(sum));
32         }
33     }
34     public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
35         Configuration conf = new Configuration();
36         Job job = Job.getInstance(conf);
37         job.setJarByClass(WordCountTest.class);
38         job.setMapperClass(WCMapper.class);
39         job.setReducerClass(WCReducer.class);
40         //指定map和reduce输出数据的类型
41         job.setMapOutputKeyClass(Text.class);
42         job.setMapOutputValueClass(IntWritable.class);
43         job.setOutputKeyClass(Text.class);
44         job.setOutputValueClass(IntWritable.class);
45         FileInputFormat.setInputPaths(job, new Path("E:\\input"));
46         FileSystem fs = FileSystem.get(conf);
47         Path outPath = new Path("E:\\output");
48         if (fs.exists(outPath)) {
49             fs.delete(outPath, true);
50         }
51         FileOutputFormat.setOutputPath(job, outPath);
52         job.submit();
53     }
54 }
View Code

 

 

 

三、MapReduce的运行原理

  splitSize默认是128M。

  FileInputFormat先扫描切片,每次扫描一行数据,调用RecordReader类中的getCurrentKey()、getCurrentValue()返回一个key(行偏移量),value(每行的内容)。

  context将返回的key和value带入到MapTask中,让map方法去进行处理。

  map方法处理完以后,将处理后的key、value进行序列化,写入到环形缓冲区中。(默认是100M)。当环形缓冲区到达80%以后,就会将里面的内容进行溢写。

  溢写的时候会进行分区,并默认按照key的hashcode值,对reduceTask进行取余。根据余数相同的分到一个分区中。在分区时还会进行排序,默认按字典顺序。使用快速排序。

  Key -> key的hashcode ->根据reduceTask的个数取余->根据取余的结果进行分区。

  在MapTask结束的时候,会将相同分区的数据聚合到一块。并进行排序,使用归并排序。

  MapTask自此结束。

 

  Reduce端会将map端处理完以后的文件,相同分区的拉取到一块。进行合并和排序,归并排序。

  一个ReduceTask去处理一个分区的数据。

  ReduceTask会根据相同的key分组,key相同的数据被分为了一组。

  一组数据去调用一次reduce方法。

  一个reduceTask处理完以后写入到一个reduceTask文件中。

 

三、Yarn资源调度流程图

  1. 客户端将它的程序提交给Yarn。
  2. RM会给客户端返回一个jobid以及一个路径。
  3. 客户端会将对应的程序信息(jar包、切片信息、序列化文件)提交到对应的路径下。
  4. 提交完以后给RM返回一个确认。
  5. RM就会在存放提交信息的那台NodeManager上创建出来一个容器。启动我们的ApplicationMaster。
  6. ApplicationMaster会跟提交的切片信息和程序向RM注册,并申请容器。
  7. RM收到资源请求后,就去跟NM通信,NM就会在自身的节点上创建出需要的容器数量。
  8. ApplicationMaster就将相应的任务信息,发送到对应的NM节点上,并使用创建出来的container去运行Task。
  9. 运行ReduceTask。
  10. 等所有的Task都执行完以后,ApplicationMaster就向RM进行注销,RM就会回收资源。

RM:负责资源的分配。

ApplicationMaster:资源的申请,程序的监控。

NM:负责创建容器,运行Task。

 

转载于:https://www.cnblogs.com/hong-bo/p/11431125.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值