1.从RDBMS导入到Hive
其实是先将RDBMS数据导入到HDFS,然后在load到Hive表中。
对于parquet格式数据在sqoop1.4.6版本以后可以导入Hive
bin/sqoop import \
--connect jdbc:mysql://hadoop-CDH:3306/test \
--username root \
--password 123456 \
--table my_user \
--fields-terminated-by '\t' \
--delete-target-dir \
--num-mappers 1 \
--hive-import \ //标识为导入到Hive表
--hive-database default \ //指定hive数据库`这里写代码片`
--hive-table user_hive //指定hive表
注意:如果不指定–target-dir,数据会存储在HDFS中的hive/warehouse目录下
对于hive表导入,可以将sql语句写入脚本,以XXX.sql命名
2.Hive导出到RDBMS
bin/sqoop export \
--connect jdbc:mysql://hadoop-CDH:3306/test \
--username root \
--password 123456 \
--table my_user2 \ //mysql接受数据的表
--export-dir /user/hive/warehouse/user_hive \ //指定要导出数据在hive的目录
--num-mappers 1 \
--input-fields-terminated-by '\t'