你们好我是AC废话不多说:
下面大数据技术 Hadoop之mapreduce(一)
文章偏长,可选择性观看,附有练习
一、MapReduce入门
1、MapReduce定义
Mapreduce是一个分布式运算程序的编程框架,是用户开发“基于hadoop的数据分析应用”的核心框架。
Mapreduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上。
框架是一个半成品。
2、MapReduce优缺点
1)优点
(1)MapReduce 易于编程
它简单的实现一些接口,就可以完成一个分布式程序,这个分布式程序可以分布到大量廉价的PC机器上运行。就是因为这个特点使得MapReduce编程变得非常流行。
(2)良好的扩展性
当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力。
(3)高容错性
MapReduce设计的初衷就是使程序能够部署在廉价的PC机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由Hadoop内部完成的。
(4)适合PB级以上海量数据的离线处理
它适合离线处理而不适合在线处理。比如像毫秒级别的返回一个结果,MapReduce很难做到。
2)缺点
MapReduce不擅长做实时计算、流式计算、DAG(有向图)计算。
(1)实时计算
MapReduce无法像MySQL一样,在毫秒或者秒级内返回结果。
(2)流式计算
流式计算的输入数据是动态的,而MapReduce的输入数据集是静态的,不能动态变化。这是因为MapReduce自身的设计特点决定了数据源必须是静态的。
(3)DAG(有向图)计算
多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce并不是不能做,而是使用后,每个MapReduce作业的输出结果都会写入到磁盘,会造成大量的磁盘IO,导致性能非常的低下。
3、MapReduce核心思想
MapReduce核心编程思想,如图所示:
1)分布式的运算程序往往需要分成至少2个阶段。
2)第一个阶段的map task并发实例,完全并行运行,互不相干。
3)第二个阶段的reduce task并发实例互不相干,但是他们的数据依赖于上一个阶段的所有map task并发实例的输出。
4)MapReduce编程模型只能包含一个map阶段和一个reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个mapreduce程序,串行运行。
4、MapReduce进程(MR)
一个完整的mapreduce程序在分布式运行时有三类实例进程:
1)MrAppMaster:负责整个程序的过程调度及状态协调。
2)MapTask:负责map阶段的整个数据处理流程。
3)ReduceTask:负责reduce阶段的整个数据处理流程。
5、MapReduce编程规范(八股文)
用户编写的程序分成三个部分:Mapper、Reducer和Driver。
1.Mapper阶段
(1)用户自定义的Mapper要继承自己的父类
(2)Mapper的输入数据是KV对的形式(KV的类型可自定义)
(3)Mapper中的业务逻辑写在map()方法中
(4)Mapper的输出数据是KV对的形式(KV的类型可自定义)
(5)map()方法(maptask进程)对每一个<K,V>调用一次
2.Reducer阶段
(1)用户自定义的Reducer要继承自己的父类
(2)Reducer的输入数据类型对应Mapper的输出数据类型,也是KV
(3)Reducer的业务逻辑写在reduce()方法中
(4)Reducetask进程对每一组相同k的<k,v>组调用一次reduce()方法
3.Driver阶段(关联Mapper和Reducer,并且提交任务到集群)
相当于yarn集群的客户端,用于提交我们整个程序到yarn集群,提交的是封装了MapReduce程序相关运行参数的job对象。
6、WordCount案例实操
1.需求
在给定的文本文件中统计输出每一个单词出现的总次数
2.数据准备
hello.txt
hello world
bigdata bigdata
hadoop
spark
hello world
bigdata bigdata
hadoop
spark
hello world
bigdata bigdata
hadoop
spark
3.分析
按照mapreduce编程规范,分别编写Mapper,Reducer,Driver,如图所示:
4.导入相应的依赖坐标+日志添加
<dependencies>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>RELEASE</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-core</artifactId>
<version>2.8.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.7.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.7.2</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>2.7.2</version>
</dependency>
</dependencies>
在项目的src/main/resources目录下,新建一个文件,命名为“log4j.properties”,在文件中填入:
log4j.rootLogger=debug, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
5.编写程序
(1)编写mapper类
package com.bigdata.wordcount;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
//KEYIN map任务输入数据key的类型 指的是文件每行内容开头处的偏移量,可以简单理解为行号,不用int,long ,
//而是用Longwritable,而不是用Intwritable,或者是nullwritable
//VALUEIN map任务输入数据value的类型,指的是每行的内容,不用String,而是用Text
//KEYOUT 经过map任务处理之后,输出数据key的类型 ,这里是每个单词,用Text表示
//VALUEOUT 经过map任务处理之后,输出数据value的类型 ,这里是单词的数量1,用Intwritable
public class WordcountMapper extends Mapper<LongWritable, Text, Text, IntWritable> {
@Override//重写父类的方法,在这里实现自己的业务逻辑
protected void map(LongWritable key, Text value, Context context)
throws IOException, InterruptedException {
System.out.println(key);
//hello world
//1 读取每一行,转化为String类型
String line = value.toString();
//2 将每行内容按照空格切分,[hello,world]
String[] split = line.split(" ");
//3 遍历数组,将单词与1分别封装为<单词,1>,并且将key value写出
for (String word : split) {
Text k = new Text(word);
IntWritable v = new IntWritable(1);//<hello,1><world,1>
context.write(k, v);
}
}
}
(2)编写reducer类
package com.bigdata.wordcount;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
//KEYIN reduce输入数据的key的类型,要与mapper的keyout对应,即Text
//VALUEIN reduce输入数据的value的类型,要与mapper的valueout对应 ,即IntWritable
//KEYOUT 经过reduce处理之后,输出数据的key的类型,我们要输出单词,其类型用Text表示
//VALUEOUT 经过reduce处理之后,输出数据的value的类型,我们要输出单词出现的总次数,其类型用IntWritable
public class WordcountReduce extends Reducer<Text, IntWritable, Text, IntWritable>{
@Override//重写父类的reduce方法,在这里实现自己的业务逻辑,在这里统计每个单词出现的总次数
//分组调用,按照key进行分组,如果key一样,则key相同的所有kv,就会在一次reduce方法里面得到调用
protected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
//<hello,1>,<hello,1>,<hello,1>
//将所有的value遍历,进行累加,value全是1,累加后的结果,就是单词出现的总次数
int sum = 0;
for (IntWritable num : values) {
int i = num.get();
sum = sum + i;
}
//将单词总次数封装为keyvalue对写出,即<单词,总次数> <hello,3>
context.write(key, new IntWritable(sum));
}
}
(3)编写驱动类
package com.bigdata.wordcount;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
public class WordcountDriver {
public static void main(String[] args) throws Exception {
//1 创建配置对象
Configuration conf = new Configuration();
//2 通过配置对象,创建job
Job job = Job.getInstance(conf);
//3 设置job的jar包位置
job.setJarByClass(WordcountDriver.class);
//4 设置mapper,reduce类
job.setMapperClass(WordcountMapper.class);
job.setReducerClass(WordcountReduce.class);
//5 设置mapper的keyout,valueout
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(IntWritable.class);
//6 设置最终输出的keyout,valueout
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
//7 设置输入数据的路径,输出数据的路径
FileInputFormat.setInputPaths(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
//8 提交任务到yarn集群或者是本地模拟器
boolean waitForCompletion = job.waitForCompletion(true);
System.out.println(waitForCompletion);
}
}
5.本地测试
(1)在windows环境上配置HADOOP_HOME环境变量
(2)在eclipse/idea上运行程序
6.集群上测试
(1)将程序打成jar包,然后拷贝到hadoop集群中
(2)启动hadoop集群
(3)执行wordcount程序
[hadoop@hadoop101 software]# hadoop jar wc.jar
com.bigdata.wordcount.WordcountDriver /user/hadoop/input /user/bigdata/output1
二、Hadoop序列化
1、序列化概述
这个一般面试会问
1)什么是序列化
序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储(持久化)和网络传输。
反序列化就是将收到字节序列(或其他数据传输协议)或者是硬盘的持久化数据,转换成内存中的对象。
2)为什么要序列化
一般来说,“活的”对象只生存在内存里,关机断电就没有了。而且“活的”对象只能由本地的进程使用,不能被发送到网络上的另外一台计算机。 然而序列化