一、使用TableOutputformat的Put API上传数据
hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator=$(echo -e '\t') -Dimporttsv.columns=HBASE_ROW_KEY,f1:docket,f1:courtname test /tmp/1/
1、importtsv.columnsmporttsv.separator:/tmp/1/下面文件,每行数据的里面的分隔符
2、importtsv.columns: hbase与 文件数据列的映射,第一列是rowkey,第二列是列族f1的docket列,第三列列族f1的courtname列
3、test:是hbase表名
4、/tmp/1/:导入的文件的路劲
二、使用bulk-loading生成StoreFiles
step1、生成Hfile
hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.columns=HBASE_ROW_KEY,f1:docket,f1:courtname -Dimporttsv.bulk.output=/tmp/2/ test /tmp/1/
step2、完成导入
hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles /tmp/2/ test
三、hbase大数据量实时写
http://blog.csdn.net/mrtitan/article/details/8660280