sqoop hbase导出mysql_Alex 的 Hadoop 菜鸟教程: 第9课 Sqoop1 从Hbase或者Hive导出mysql

hbase(main):005:0> create 'employee','info'

0 row(s) in 0.4740 seconds

=> Hbase::Table - employee

hbase(main):006:0> put 'employee',1,'info:id',1

0 row(s) in 0.2080 seconds

hbase(main):008:0> scan 'employee'

ROW COLUMN+CELL

1 column=info:id, timestamp=1417591291730, value=1

1 row(s) in 0.0610 seconds

hbase(main):009:0> put 'employee',1,'info:name','peter'

0 row(s) in 0.0220 seconds

hbase(main):010:0> scan 'employee'

ROW COLUMN+CELL

1 column=info:id, timestamp=1417591291730, value=1

1 column=info:name, timestamp=1417591321072, value=peter

1 row(s) in 0.0450 seconds

hbase(main):011:0> put 'employee',2,'info:id',2

0 row(s) in 0.0370 seconds

hbase(main):012:0> put 'employee',2,'info:name','paul'

0 row(s) in 0.0180 seconds

hbase(main):013:0> scan 'employee'

ROW COLUMN+CELL

1 column=info:id, timestamp=1417591291730, value=1

1 column=info:name, timestamp=1417591321072, value=peter

2 column=info:id, timestamp=1417591500179, value=2

2 column=info:name, timestamp=1417591512075, value=paul

2 row(s) in 0.0440 seconds

建立Hive外部表

hive 有分为原生表和外部表,原生表是以简单文件方式存储在hdfs里面,外部表依赖别的框架,比如Hbase,我们现在建立1个依赖于我们刚刚建立的employee hbase表的hive 外部表

hive> CREATE EXTERNAL TABLE h_employee(key int, id int, name string)

> STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'

> WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key, info:id,info:name")

> TBLPROPERTIES ("hbase.table.name" = "employee");

OK

Time taken: 0.324 seconds

hive> select * from h_employee;

OK

11peter

22paul

Time taken: 1.129 seconds, Fetched: 2 row(s)

建立Hive原生表

这个hive原生表只是用于导出的时候临时使用的,所以取名叫 h_employee_export,字段之间的分隔符用逗号

CREATE TABLE h_employee_export(key INT, id INT, name STRING)

ROW FORMAT DELIMITED FIELDS TERMINATED BY '

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值