默认情况下,TextInputformat对任务的切片机智是按文件规划切片,不管文件多小,都会是一个单独的切片,都是交给一个maptask,如果有多个小文件,就会产生大量的maptask,处理效率底下。
解决办法:
1.从源头上解决,将文件合并后再上传到HDFS处理。
2.如果小文件已经在HDFS中,可以先写一个MapReduce程序对小文件合并
3.可以用另一种InputFormat:CombineInputFormat(它可以将多个文件划分到一个切片中),这样就可以交给一个maptask处理。
使用默认的InputFormat
使用CombineTextInputFormat
job.setInputFormatClass(CombineTextInputFormat.class);
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);
CombineTextInputFormat.setMinInputSplitSize(job, 2097152);