sqoop导出parquet格式的hive表

sqoop导出parquet格式的表

结论1:sqoop导出parquet格式的表,必须指定hive的数据库与表名

遇到的问题1:

ERROR sqoop.Sqoop: Got exception running Sqoop: org.kitesdk.data.DatasetNotFoundException: Descriptor location does not exist: hdfs://XXX/.metadata

原因:采用了传统的导出数据的方式

sqoop export \
--connect jdbc:mysql://hostname:3306/schema \
--driver com.mysql.jdbcDriver \
--username xxxx \
--password *** \
--table xxx \
--input-fields-terminated-by ',' \
--input-null-string '\\N' \
--input-null-non-string '\\N' \
--export-dir /apps/hive/warehouse/ods.db/xxx \
-m 1;

解决方法: 指定导出的hive数据库名称与表名,去掉hdfs路径

sqoop export \
--connect jdbc:mysql://hostname:3306/schema \
--driver com.mysql.jdbcDriver \
--username xxxx \
--password *** \
--table xxx \
--input-fields-terminated-by ',' \
--input-null-string '\\N' \
--input-null-non-string '\\N' \
--hcatalog-database itfdb \
--hcatalog-table test2 \
-m 1;

结论2:RDBMS中的列必须要能在hive中查到

遇到的问题:

我在RDBMS中建的表字段为 id,name,sex
但在hive中建的表的字段为 name,age,sex

在这里插入图片描述

原因:RDBMS中的id列在hive中并未找到

解决方法:将hive中的列名与RDBMS中的列名保持一致

将hive中建表字段改为 id,name,sex

结论3: 数据导出的匹配并不是按照字段顺序匹配的,而是按照字段名匹配的

结论4:hive中的字段可以比RDBMS中的字段多,但是必须包含RDBMS中的字段

那么问题来了,字段顺序不一致可以不? 答案是可以的

hive中的字段可不可以比RDBMS多? 答案也是可以的

证明如下:

我在RDBMS中建的表的字段顺序为:id,name,age
我在hive中建的表的字段顺序为:id,age,name,tt
并向hive中导入了一条数据 (1,2,3,4)

在这里插入图片描述

  • 然后使用sqoop将 该 parquet格式存储的 hive表导出 到RDBMS,结果如下:

在这里插入图片描述

  • 很明显可以看出,是按照字段名去匹配的值
  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
(7)使用Sqoop将MySQL数据导入到Hive的步骤: 1. 确保Sqoop已经正确安装和配置,并且Hive的元数据存储在MySQL中。 2. 在Hive中创建一个与MySQL对应的Hive。可以使用以下命令: ``` CREATE TABLE mydb.news ( id INT, title STRING, content STRING, publish_time TIMESTAMP ) STORED AS PARQUET; ``` 这将在Hive中创建一个新的Parquet格式,用于存储MySQL中的数据。 3. 使用Sqoop将MySQL中的数据导入到Hive中。可以使用以下命令: ``` sqoop import \ --connect jdbc:mysql://mysql_host/mydb \ --username mysql_user \ --password mysql_password \ --table news \ --hive-import \ --hive-table mydb.news \ --incremental append \ --check-column id \ --last-value 0 \ --split-by id \ --target-dir /tmp/news ``` 其中,`--connect`参数指定MySQL数据库的连接信息,`--username`和`--password`指定MySQL数据库的用户名和密码,`--table`参数指定要导入的MySQL名,`--hive-import`参数示将数据导入到Hive中,`--hive-table`参数指定要导入到的Hive名,`--incremental`参数示增量导入数据,`--check-column`参数指定用于增量导入的列名,`--last-value`参数指定增量导入的起始值,`--split-by`参数指定用于拆分任务的列名,`--target-dir`参数指定导入数据的目录。 4. 最后,使用以下命令在Hive中查看导入的数据: ``` SELECT * FROM mydb.news; ``` 这将显示导入到Hive中的数据。 (8)使用SqoopHive数据导入到MySQL的步骤: 1. 确保Sqoop已经正确安装和配置,并且Hive的元数据存储在MySQL中。 2. 在Hive中创建一个与MySQL对应的Hive。可以使用以下命令: ``` CREATE TABLE mydb.news ( id INT, title STRING, content STRING, publish_time TIMESTAMP ) STORED AS PARQUET; ``` 这将在Hive中创建一个新的Parquet格式,用于存储MySQL中的数据。 3. 使用SqoopHive中的数据导出到MySQL中。可以使用以下命令: ``` sqoop export \ --connect jdbc:mysql://mysql_host/mydb \ --username mysql_user \ --password mysql_password \ --table news \ --export-dir /user/hive/warehouse/mydb.db/news \ --input-fields-terminated-by ',' \ --update-key id \ --update-mode allowinsert \ --input-null-string '\\N' \ --input-null-non-string '\\N' ``` 其中,`--connect`参数指定MySQL数据库的连接信息,`--username`和`--password`指定MySQL数据库的用户名和密码,`--table`参数指定要导出到的MySQL名,`--export-dir`参数指定要导出Hive的目录,`--input-fields-terminated-by`参数指定Hive中的字段分隔符,`--update-key`参数指定用于更新的列名,`--update-mode`参数指定更新模式,`--input-null-string`和`--input-null-non-string`参数指定Hive中的空值。 4. 最后,使用以下命令在MySQL中查看导入的数据: ``` SELECT * FROM mydb.news; ``` 这将显示导入到MySQL中的数据。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值