sqoop操作之HIVE导出到ORACLE

示例数据准备

hive中创建dept表

create table dept(
    deptno int,
    dname string,
    loc string
)
row format delimited fields terminated by '\t' lines terminated by '\n' 
stored as textfile;

导入数据:

sqoop import --connect jdbc:oracle:thin:@192.168.1.107:1521:ORCL \
--username SCOTT --password tiger \
--table DEPT  \
--hive-overwrite --hive-import  --hive-table dept \
--fields-terminated-by '\t' --lines-terminated-by '\n' \
-m 3;

HIVE导出到ORACLE

需要分两步:
第一步:先写入到hdfs

insert overwrite directory '/user/hadoop/DEPT_HIVE_EXPORT' select * from dept;

第二步:由hdfs导出到oracle

导出到数据库时,要确保表已经在数据库中存在,否则报错。

create table DEPT_DEMO as select * from DEPT where 1=2;

sqoop export --connect jdbc:oracle:thin:@192.168.1.107:1521:ORCL \
--username SCOTT --password tiger \
--table DEPT_DEMO  \
--export-dir /user/hadoop/DEPT_HIVE_EXPORT \
--fields-terminated-by '\001'  \
-m 2;

注意:上面定义Hive的数据表dept的时候,fields terminated指定的是'\t',但是使用Hive的insert语句导入到HDFS之后,record的分隔符变成了^A(ascii码是 \00001,16进制是\0x01,即隐藏字符),所以下面导出到Oracle的时候,需要指定--fields-terminated-by '\001',如果不指定分隔符,则报错:Caused by: java.lang.NumberFormatException

展开阅读全文

没有更多推荐了,返回首页