默认情况下TextInputformat对任务的切片机制是按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个maptask,这样如果有大量小文件,就会产生大量的maptask,处理效率极其低下。
优化策略
(1)最好的办法,在数据处理系统的最前端(预处理/采集),将小文件先合并成大文件,再上传到HDFS做后续分析。
(2)补救措施:如果已经是大量小文件在HDFS中了,可以使用另一种InputFormat来做切片(CombineTextInputFormat),它的切片逻辑跟TextFileInputFormat不同:它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个maptask。
(3)优先满足最小切片大小,不超过最大切片大小
下面的代码MapReduce在运行的时候切片最大为3M,最小为2M
比如7.58M的文件运行下面的代码就是两个切片,3+4.58,因1058不满足最小值为2的条件,就会被归纳到上一个切片运行
//将多个小文件划分给一个maptask运行---优化策略
//crtl+h 查看父类和子类
job.setInputFormatClass(CombineTextInputFormat.class);
CombineTextInputFormat.setMaxInputSplitSize(job,3*1024*1024);//上限3M
CombineTextInputFormat.setMinInputSplitSize(job,2*1024*1024);//下线2M
在看number of splits时,和最大值(MaxSplitSize)有关、总体规律就是和低于最大值是一片、高于最大值1.5倍+,则为两片;高于最大值2倍以上则向下取整。