一、HDFS
一、HDFS的基本概念
HDFS:Hadoop Distributed File System ,Hadoop分布式文件系统。主要用来解决海量数据的存储问题。
二、HDFS的写文件过程
首先我要将一个文件存到HDFS集群中。
- 客户端通过RPC(远程服务)访问NameNode,请求写入一个文件。
- NameNode检查客户端是否有权限写入,如果有权限返回一个响应。如果没有客户端就会抛出一个异常。
- 客户端会将文件按BlckSize大小(默认128M)将文件切分成一个一个Block块,然后请求写入第一个Block块。
- NameNode会根据它的负载均衡机制,给客户端返回满足其副本数量(默认是3)的列表(BlockId:主机,端口号,存放的目录)。
- 客户端根据返回的列表,开始建立管道(pipeline)。客户端->第一个节点->第二个节点->第三个节点。
- 开始传输数据,Block按照Packet一次传输,当一个Packet成功传输到第一个DataNode上以后,第一个DodaNode就把这个Packet开始进行复制,并将这个Packet通过管道传输到下一个DataNode上,下一个DataNode接收到Packet后,继续进行复制,再传输到下一个DataNode上。
- 当一个Block块成功传输完以后,从最后一个DataNode开始,依次从管道返回ACK队列,到客户端。
- 客户端会在自己内部维护着一个ACK队列,跟返回来的ACK队列进行匹配,只要有一台DataNode写成功,就认为这次写操作是完成的。
- 开始进行下一个Block块的写入。重复3-8。
如果在传输的时候,有的DataNode宕机了,这个DataNode就会从这个管道中退出。剩下的DataNode继续传输。然后,等传输完成以后,NameNode会再分发出一个节点,去写成功的DataNode上复制出一份Block块,写到新的DataNode上。
三、HDFS的读文件过程
- 客户端向NameNode通过RPC发送读请求。
- NameNode确认客户端是否有读权限,如果有,给客户端返回一个响应,如果没有,客户端抛出一个异常。
- 客户端向NameNode请求需要读取的文件。
- NameNode返回存储此文件的每个Block块所在的位置的列表。
- 客户端会从返回的列表中挑选一台最近的,建立连接,读取Block块。读取的时候会将Block块统计目录下的校验信息,一起读取过来。
- 客户端读取完Block块信息以后,会计算出一个校验和跟读取过来的校验和进行对比,如果能匹配上,就说明正确。如果匹配不上,就从其他节点上读取Block块。
二、MapReduce
一、MapReduce的基本概念
MapReduce是一种分布式计算模型,由Google提出,主要用于搜索领域,解决海量数据的计算问题。MR由两个阶段组成:Map和Reduce,用户只需要实现map()
和reduce()两个函数,即可实现分布式计算。这两个函数的形参是key、value对,表示函数的输入信息。下面是MR的执行流程:
1、Map任务
① 读取输入文件内容,解析成key、value对儿。对输入文件的每一行,解析成 key、value对。每一个键值对调用一次map函数。
② 写自己的逻辑,对输入的key、value处理,转换成新的key、value输出
③ 对输出的key、value进行分区
④ 对不同分区的数据,按照key进行排序、分组。相同key的value放到一个集合中.
⑤ (可选)分组后的数据进行归约
2、Reduce任务
① 对多个map任务的输出,按照不同的分区,通过网络copy到不同的reduce 节点。
② 对多个map任务的输出进行合并、排序。写reduce函数增加自己的逻辑,对输入的key、value处理,转换成新的key、value输出。
③ 把reduce的输出保存到文件中
二、WordCount的程序
程序的功能:假设现在有个test文本,WordCount程序就是利用MR计算模型来统计这个文本中每个单词出现的总次数。
那么实现原理就是:MapTask中的map方法对我们的每一行数据进行处理。然后ReduceTask把相同key的归为一组,每组调用一个reduce的方法去处理!
代码如下:
1 public class WordCountTest { 2 // KEYIN 每一行数据的起始位置,行偏移量 3 // VALUEIN 每一行数据 4 // KEYOUT map端输出数据中key的类型 5 // VALUEOUT map端输出数据中value的类型 6 public static class WCMapper extends Mapper<LongWritable, Text, Text, IntWritable> { 7 // key 行偏移量 8 // value 每行的数据 9 // context 上下文,就是将我们map处理完以后的数据,发送出去。 10 @Override 11 protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { 12 String[] words = value.toString().split(" "); 13 for (String word : words) { 14 context.write(new Text(word), new IntWritable(1)); 15 } 16 } 17 } 18 // KEYIN reduce端接受数据中key的类型 19 // VALUEIN reduce端接受数据中value的类型 20 // KEYOUT reduce端输出数据中key的类型 21 // VALUEOUT reduce端输出数据中value的类型 22 public static class WCReducer extends Reducer<Text, IntWritable, Text, IntWritable> { 23 // key 就是reduce端接受数据中map的类型 24 // values 相同key的value集合 25 // context 上下文,就是将我们reduce处理完以后的数据,发送出去。 26 protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { 27 int sum = 0; 28 for (IntWritable value : values) { 29 sum += value.get(); 30 } 31 context.write(key, new IntWritable(sum)); 32 } 33 } 34 public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException { 35 Configuration conf = new Configuration(); 36 Job job = Job.getInstance(conf); 37 job.setJarByClass(WordCountTest.class); 38 job.setMapperClass(WCMapper.class); 39 job.setReducerClass(WCReducer.class); 40 //指定map和reduce输出数据的类型 41 job.setMapOutputKeyClass(Text.class); 42 job.setMapOutputValueClass(IntWritable.class); 43 job.setOutputKeyClass(Text.class); 44 job.setOutputValueClass(IntWritable.class); 45 FileInputFormat.setInputPaths(job, new Path("E:\\input")); 46 FileSystem fs = FileSystem.get(conf); 47 Path outPath = new Path("E:\\output"); 48 if (fs.exists(outPath)) { 49 fs.delete(outPath, true); 50 } 51 FileOutputFormat.setOutputPath(job, outPath); 52 job.submit(); 53 } 54 }
三、MapReduce的运行原理
splitSize默认是128M。
FileInputFormat先扫描切片,每次扫描一行数据,调用RecordReader类中的getCurrentKey()、getCurrentValue()返回一个key(行偏移量),value(每行的内容)。
context将返回的key和value带入到MapTask中,让map方法去进行处理。
map方法处理完以后,将处理后的key、value进行序列化,写入到环形缓冲区中。(默认是100M)。当环形缓冲区到达80%以后,就会将里面的内容进行溢写。
溢写的时候会进行分区,并默认按照key的hashcode值,对reduceTask进行取余。根据余数相同的分到一个分区中。在分区时还会进行排序,默认按字典顺序。使用快速排序。
Key -> key的hashcode ->根据reduceTask的个数取余->根据取余的结果进行分区。
在MapTask结束的时候,会将相同分区的数据聚合到一块。并进行排序,使用归并排序。
MapTask自此结束。
Reduce端会将map端处理完以后的文件,相同分区的拉取到一块。进行合并和排序,归并排序。
一个ReduceTask去处理一个分区的数据。
ReduceTask会根据相同的key分组,key相同的数据被分为了一组。
一组数据去调用一次reduce方法。
一个reduceTask处理完以后写入到一个reduceTask文件中。
三、Yarn资源调度流程图
- 客户端将它的程序提交给Yarn。
- RM会给客户端返回一个jobid以及一个路径。
- 客户端会将对应的程序信息(jar包、切片信息、序列化文件)提交到对应的路径下。
- 提交完以后给RM返回一个确认。
- RM就会在存放提交信息的那台NodeManager上创建出来一个容器。启动我们的ApplicationMaster。
- ApplicationMaster会跟提交的切片信息和程序向RM注册,并申请容器。
- RM收到资源请求后,就去跟NM通信,NM就会在自身的节点上创建出需要的容器数量。
- ApplicationMaster就将相应的任务信息,发送到对应的NM节点上,并使用创建出来的container去运行Task。
- 运行ReduceTask。
- 等所有的Task都执行完以后,ApplicationMaster就向RM进行注销,RM就会回收资源。
RM:负责资源的分配。
ApplicationMaster:资源的申请,程序的监控。
NM:负责创建容器,运行Task。