问题场景:
在实际应用HBase过程中,经常需要将生产环境中的数据备份,或者需要在开发环境中利用生产环境的数据(更加符合实际情况),因此HBase存储的数据的导入导出必不可少。
主要步骤如下:
1、切换到hbase bin的目录下,将HBase中表复制导出到HDFS中,执行:
sudo-u hadoop ./hbase org.apache.hadoop.hbase.mapreduce.Export test_table/data/test_table
上述中,test_table是HBase中要导出的表名,/data/test_table是hadoop fs(hadoop文件系统)中的位置。
2、切换到hadoop bin目录下,将hadoop HDFS中的文件拷贝到本地linux路径:
./hadoopfs -get /data/test_table ~/
上述中,/data/test_table是hadoop HDFS文件系统中的路径,~/是本地linux路径。
3、切换到hadoop bin目录下,将linux中的本地文件拷贝到Hadoop HDFS中:
./hadoopfs -put ~/test_table /data/
其中,~/test_table是本地Linux文件,/data/是Hadoop HDFS文件路径
4、拷贝好数据后,需要创建我们要导入数据的表,进入hbaseshell环境:
create‘test_table’,’msgId’
注意:创建表的时候,需要至少指定一个列簇
5、将Hadoop HDFS中的文件,导入到指定的HBase的表:
./hbaseorg.apache.hadoop.hbase.mapreduce.Import test_table /data/test_table