问题
使用bulkload方式导入数据到hbase时,mapper任务可能会发生找不到分区文件错误
错误信息如下:
Error: java.lang.IllegalArgumentException: Can't read partitions file at org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner.setConf(TotalOrderPartitioner.java:116) at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:73) at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:133) at org.apache.hadoop.mapred.MapTask$NewOutputCollector.<init>(MapTask.java:707) at
原因分析
嫌啰嗦的可以直接跳到最后 解决方法总结 。
bulkload都会使用HFileOutputFormat2作为OutputFormat,配置代码如下:
HFileOutputFormat2.configureIncrementalLoad(job, table, table.getRegionLocator());
通过阅读源码,发现该方法会自动配置reduce任务,并且根据RegionLocator获取表的region边界,从而自动生成分区文件并写入到hdfs上。
在client程