Hadoop学习
FileInputFormat切片机制和实现类
MapTask的并行度决定Map阶段的任务处理并发度,进而影响到整个Job的处理速度。
- 一个Job的Map阶段并行度由客户端在提文Job时的切片数决定
- 每一个Split切片分配一个MapTask并行实例处理
- 默认情况下,切片大小=BlockSize
- 切片时不考虑数据隼整体,而是逐个针对每-个文件单独切片
FileInputFormat切片机制
一. FileInputFormat切片源码运行过程
- 程序先找到你数据存储的目录。
- 开始遍历处理(规划切片)目录下的每一个文件
- 遍历第一个文件(假设文件大小为300M)
1). 获取文件大小fs.sizeof()
2). 计算切片大小
compute SplitSize(Math.max(minSize,Math.min(maxSize,blocksize))=blocksize=128M
3). 默认情况下,切片大小=blocksize
4). 开始切,形成第1个切片:0–128M 第2个切片:128–256M 第3个切片:256M–300M
(每次切片时,都要判断切完剩下的部分是否大于块的1.1倍,不大于1.1 倍就划分一块切片)
5). 将切片信息写到一个切片规划文件中
6). 整个切片的核心过程在getSplit()方法中完成
7). IputSplit只记录了切片的元数据信息,比如起始位置、长度以及所在的节点列表等。 - 提交切片规划文件到YARN.上,YARN上的MrAppMaster就可以根据切片规划文件计算开启MapTask个数
二. 切片机制
- 简单地按照文件的内容长度进行切片
- 切片大小,默认等于Block大小
- 切片时不考虑数据集整体,而是逐个针对每一个文件单独切片
三. 案例分析
- 输入数据有两个文件:
file1.txt 320M
file2.txt 10M - 经过FileInputFormat的切片机制运算后,形成的切片信息如下:
file1.txt.split1 0~128M
file1.txt.split2 128~256M
file1.txt.split3 256~320M
file2.txt.split1 0~ 10M
四. 源码中计算切片大小的参数配置
- 源码中计算切片大小的公式
Math.max(minSize,Math.min(maxSize, blockSize));
mapreduce.input.fileinputformat.split.minsize=1 默认值为1
mapreduce.input.fileinputformat.split.maxsize=Long MAXValue 默认值Long MAXValue
因此,默认情况下,切片大小=blocksize.
- 切片大小设置
maxsize (切片最大值) : 参数如果调得比blockSize小,则会让切片变小,而且就等于配置的这个参数的值。
minsize(切片最小值) : 参数调的比blockSize大,则可以让切片变得比blockSize还大。
- 获取切片信息API
// 获取切片的文件名称
String name = inputSplit.getPath().getName();
// 根据文件类型获取切片信息
FileSplit inputSplit =(FileSplit) context.getInputSplit();
CombineTextInputFormat切片机制
框架默认的TextInputFormat切片机制是对任务按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个MapTask,这样如果有大量小文件,就会产生大量的MapTask,处理效率极其低下。
- 应用场景:
CombineTextInputFormat用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个MapTask处理。 - 虚拟存储切片最大值设置
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m
注意:虚拟存储切片最大值设置最好根据实际的小文件大小情况来设置具体的值。 - 切片机制
生成切片过程包括:虚拟存储过程和切片过程二部分。
1). 虚拟存储过程:
将输入目录下所有文件大小,依次和设置的setMaxInputSplitSize值比较,如果不大于设置的最大值,逻辑上划分一个块。如果输入文件大于设置的最大值且大于两倍,那么以最大值切割一块;当剩余数据大小超过设置的最大值且不大于最大值2倍,此时将文件均分成2个虚拟存储块(防止出现太小切片)。
例如setMaxInputSplitSize值为4M,输入文件大小为8.02M,则先逻辑上分成一个4M。剩余的大小为4.02M,如果按照4M逻辑划分,就会出现0.02M的小的虚拟存储文件,所以将剩余的4.02M文件切分成(2.01M和2.01M)两个文件。
2). 切片过程:
(a)判断虚拟存储的文件大小是否大于setMaxInputSplitSize值,大于等于则单独形成一个切片。
(b)如果不大于则跟下一个虚拟存储文件进行合并,共同形成一个切片。
(c)测试举例:
有4个小文件大小分别为1.7M、5.1M、3.4M以及6.8M这四个小文件,则虚拟存储之后形成6个文件块,大小分别为:1.7M,2.55M,2.55M,3.4M,3.4M,3.4M
最终会形成3个切片,大小分别为:
(1.7+2.55)M (2.55+3.4)M (3.4+3.4)M
CombineTextInputFormat案例
- 需求
将输入的大量小文件合并成一个切片统一处理。
准备4个小文件,希望一个切片处理4个文件
- 实现过程
1). 不做任何处理,运行WordCount案例程序,观察切片个数为4
2020-04-13 15:47:43,030 INFO [org.apache.hadoop.mapreduce.JobSubmitter] - number of splits:4
2). 在WordcountDriver中增加如下代码,运行程序,并观察运行的切片个数为3
在Driver驱动类中添加代码如下:
// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);
//虚拟存储切片最大值设置4m
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);
运行结果为3个切片:
3). 在WordcountDriver中增加如下代码,运行程序,并观察运行的切片个数为1
在Driver驱动类中添加代码如下:
// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);
//虚拟存储切片最大值设置4m
CombineTextInputFormat.setMaxInputSplitSize(job, 20971520);
运行结果为1个切片:
FileInputFormat实现类
在运行MapReduce程序时,输入的文件格式包括:基于行的日志文件、二进制格式文件、数据库表等。那么,针对不同的数据类型, MapReduce是如何读取这些数据的呢?
FilelmputFormat常见的接口实现类包括:TextlnputFormat,KeyValueTextInputFormat.,NLineInputFormat,CombineTextInputFormat和自定义InputFormat等。
1. TextInputFormat
TextInputFormat是默认的FileInputFormat实现类。按行读取每条记录。键是存储该行在整个文件中的起始字节偏移量,LongWritable类型。 值是这行的内容,不包括任何行终止符(换行符和回车符),Text类型。
以下是一个示例,比如,一个分片包含了如下4条文本记录。
Rich learning form
Intelligent learning engine
Learning more C onvenient
From the real demand for more close to the enterprise
每条记录表示为以下键/值对:
(0,Rich learning form) 注:第一行从R开始到m一共18字节,下一行的起始字节偏移量为19
(19,Intel ligent learning engine)
(47,Learning more convenient)
(72,From the real demand for more close to the enterprise)
2. KeyValueTextInputFormat
每一行均为一条记录,被分隔符分割为key,value。可以通过在驱动类中设置conf.set(KeyValueLineRecordReaderKEY_ VALUE_ SEPERATOR, "\t");
来设定分隔符。默认分隔符是tab (\t) 。
以下是一个示例,输入是一个包含4条记录的分片。 其中---->表示一个(水平方向的)制表符。
line1---->Rich learning form
line2---->Intelligent learning engine
line3---->Learning more convenient
line4---->From the real demand for more close to the enterprise
每条记录表示为以下键/值对:
(1ine1,Rich learning form)
(1ine2,Intelligent learning engine)
(line3,Learning more convenient)
(line4,From the real demand for more close to the enterprise)
此时的键是每行排在制表符之前的Text序列
3. NLinelnputFormat
如果使用NlineInputFormat,代表每个map进程处理的InputSplit不再按Block块去划分,而是按NlineInputFormat指定的行数N来划分。即输入文件的总行数/N=切片数,如果不整除,切片数=/商+ 1.
以下是一个示例,仍然以上面的4行输入为例
Rich learning form
Intelligent learning engine
Learning more convenient
From the real demand for more close to the enteprise
例:如果N是2,则每个输入分片包含两行,开启2个MapTask.
(0,Rich learning form)
(19,Inelligent 1eaming engine)
另一个mapper则收到后两行: .
(47,Learning more convenient)
(72,From the real demand for more close to the enterprise)
这里的键和值与TextInputFomat生成的一样