MapReduce阶段 需要经历三个阶段 mapper reducer 和 driver
一、普通对象
1.Mapper阶段
(1)用户自定义的Mapper要继承自己的父类。
(2)Mapper的输入数据是KV对的形式(KV的类型可自定义)
(此时K 的意思是 一行首个字母的偏移量
比如第一行首字母为0 第一行有33个字节 第二行K为34
V就是这一行数据)
(3)Mapper 中的业务逻辑写在map()方法中·
(4)Mapper的输出数据是KV对的形式(KV的类型可自定义)。
(5)map(方法(maptask进程)对每一个<K,V>调用一次.(一行一行的处理数据 默认)
2.Reducer 阶段.
(1)用户自定义的Reducer要继承自己的父类。
(2)Reducer的输入数据类型对应 Mapper的输出数据类型,也是KV
(3)Reducer 的业务逻辑写在reduce方法中。
(4)Reducetask 进程对每一组相同k的<k.v>组调用一次reduce()方法。(只对k 相同的数据 进行reduce方法)
3.Driver 阶段.
相当于yarn集群的客户端,用于提交我们整个程序到yarn集群,提交的是封装了mapreduce程序相关的运行参数的job对象
二、自定义对象 bean
自定义bean对象想要实现序列化传输,必须实现序列化接口。需要注意以下7项。
(1)必须实现Writable接口
(2)反序列化时,需要反射调用空参构造函数,所以必须有空参构造函数,构造函数便于实例化对象 加快程序运行
(3)重写序列化方法
write
(4)重写反序列化方法
readFields
(5)注意反序列化的顺序和序列化的顺序完全一致
(6)要想把结果显示在文件中,需要重写toSting(),可用“\t" 分开,方便后续用。
(7)如果需要将自定义的bean放在key中传输,则还需要实现comparable接口,因为mapreduce框中的shuffle过程中一定会对key进行排序
三、为什么要序列化对象?对象的序列化
3.1.1 什么是序列化.
序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储(持久化)和网络传输。.
反序列化就是将收到字节序列(或其他数据传输协议)或者是硬盘的持久化数据,转换成内存中的对象。。
3.1.2为什么要序列化.
一般来说,“活的”对象只生存在内存里,关机断电就没有了。而且“活的”对象只能
由本地的进程使用,不能被发送到网络上的另外一台计算机。然而序列化可以存储“活的”
对象,可以将“活的”对象发送到远程计算机。.
3.1.3 为什么不用 Java 的序列化
Java 的序列化是一个重量级序列化框架(Serializable),一个对象被序列化后,会附带很多额外的信息(各种校验信息,header,继承体系等),不便于在网络中高效传输。
所以,
hadoop 自己开发了一套序列化机制(Writable),特点如下:
常用的数据类型对应的hadoop数据序列化类型
就String 特殊------->Text,剩下的就是在后面添加Writable
java的基本类型 | Writable |
---|---|
布尔型(boolean) | BooleanWritable |
字节型(byte) | ByteWritable |
整型(int) | IntWritable |
浮点型(float) | FloatWritable |
长整型(long) | LongWritable |
双精度浮点型(double) | DoubleWritable |
String | Text |
1.紧凑·
紧凑的格式能让我们充分利用网络带宽,而带宽是数据中心最稀缺的资源
2.快速。
进程通信形成了分布式系统的骨架,所以需要尽量减少序列化和反序列化的性能开销,
这是基本的;
3.可扩展·
协议为了满足新的需求变化,所以控制客户端和服务器过程中,需要直接引进相应的协
议,这些是新协议,原序列化方式能支持新的协议报文;
4.互操作.
能支持不同语言写的客户端和服务端进行交互;
--------------------——————————————如有雷同,纯属巧合