hbase命令 写数据到hbase表


一、使用TableOutputformat的Put API上传数据

hbase  org.apache.hadoop.hbase.mapreduce.ImportTsv  -Dimporttsv.separator=$(echo -e '\t') -Dimporttsv.columns=HBASE_ROW_KEY,f1:docket,f1:courtname test /tmp/1/

1、importtsv.columnsmporttsv.separator:/tmp/1/下面文件,每行数据的里面的分隔符
2、importtsv.columns: hbase与 文件数据列的映射,第一列是rowkey,第二列是列族f1的docket列,第三列列族f1的courtname列
3、test:是hbase表名
4、/tmp/1/:导入的文件的路劲


二、使用bulk-loading生成StoreFiles

step1、生成Hfile
hbase org.apache.hadoop.hbase.mapreduce.ImportTsv  -Dimporttsv.columns=HBASE_ROW_KEY,f1:docket,f1:courtname  -Dimporttsv.bulk.output=/tmp/2/ test  /tmp/1/

step2、完成导入
hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles  /tmp/2/ test 


三、hbase大数据量实时写

http://blog.csdn.net/mrtitan/article/details/8660280





阅读更多
上一篇CDH key value index lily安装配置
下一篇SVM实例
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页

关闭
关闭