​Sqoop导入数据库数据到Hive的两种方式​

本文详细介绍了使用Sqoop的两种方式将关系型数据库数据导入Hive,包括基本命令和注意事项。对比了SqoopAPI和HCatalogAPI的区别,如数据格式支持、数据增加形式以及字段处理方式。 Sqoop方式支持的数据格式较少,允许数据覆盖,而HCatalog则支持更多格式且不允许覆盖,要求源表和目标表字段名相同。
摘要由CSDN通过智能技术生成

通过Sqoop将关系型数据库数据到Hive有两种方式,一种是Sqoop API,一种是使用HCatalog API。两种方式略有不同,各有优缺点,这里主要介绍两者的区别与共同点。

一、Sqoop方式
Sqoop方式基本的命令如下:

sqoop import \
--hive-import \
--connect 'jdbc:mysql://localhost:3306/test' \
--username 'root' \
--password '123456789' \
--query " select order_no from driver_action where  \$CONDITIONS" \
--hive-database test \
--hive-table driver_action \
--hive-partition-key pt \
--hive-partition-value 20190901 \
--null-string '' \
--null-non-string '' \
--num-mappers 1 \
--target-dir /tmp/test \
--delete-target-dir

通过–query选项中"where $CONDITIONS"是必须带,否者会报错,如下:

19/08/30 11:02:24 ERROR tool.ImportTool: Encountered IOException running import job: java.io.IOException: Query [SELECT * FROM t_passenger ] must contain '$CONDITIONS' in WHERE clause.
    at org.apache.sqoop.manager.ConnManager.getColumnTypes(ConnManager.java:300)
    at org.apache.sqoop.orm.ClassWriter.getColumnTypes(ClassWriter.java:1833)
    at org.apache.sqoop.orm.ClassWriter.generate(ClassWriter.java:1645)
    at org.apache.sqoop.tool.CodeGenTool.generateORM(CodeGenTool.java:107)
    at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:478)
    at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:605)
    at org.apache.sqoop.Sqoop.run(Sqoop.java:143)
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
    at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:179)
    at org.apache.sqoop.Sqoop.runTool(Sqoop.java:218)
    at org.apache.sqoop.Sqoop.runTool(Sqoop.java:227)
    at org.apache.sqoop.Sqoop.main(Sqoop.java:236)


通过–query可以实现复杂的数据抽取,简单的数据抽取可以使用下面方式:

sqoop import \
--hive-import \
--connect 'jdbc:mysql://localhost:3306/test' \
--table driver_action \
--username 'root' \
--password '123456789' \
--columns " order_no" \
--where "where order_no is not null" \
--hive-database test \
--hive-table driver_action \
--hive-partition-key pt \
--hive-partition-value 20190901 \
--null-string '' \
--null-non-string '' \
--num-mappers 1 \
--target-dir /tmp/test \
--delete-target-dir

 

二、HCatalog方式


HCatalog方式基本的命令如下:

sqoop import \
--connect jdbc:mysql://localhost:3306/test\
--username 'root' \
--password 'root' \
--query "SELECT order_no FROM driver_action  WHERE \$CONDITIONS" \
--hcatalog-database test \
--hcatalog-table driver_action \
--hcatalog-partition-keys pt \
--hcatalog-partition-values 20200104 \
--hcatalog-storage-stanza 'stored as orc tblproperties ("orc.compress"="SNAPPY")' \
--num-mappers 1

sqoop import \
--connect jdbc:mysql://localhost:3306/test\
--username 'root' \
--password 'root' \
--table driver_action \
--columns " order_no" \
--where "where order_no is not null" \
--hcatalog-database test \
--hcatalog-table driver_action \
--hcatalog-partition-keys pt \
--hcatalog-partition-values 20200104 \
--hcatalog-storage-stanza 'stored as orc tblproperties ("orc.compress"="SNAPPY")' \
--num-mappers 1
 

三、区别

HCatalog方式与Sqoop方式的参数基本都是相同,只是个别不一样,都是可以实现Sqoop将数据抽取到Hive,下面主要介绍一下两者的区别:
数据格式
Sqoop方式支持的数据格式较少,HCatalog支持的较多,比如Sqoop方式不支持ORC格式的表,但是HCatalog支持。

数据增加形式
Sqoop方式允许数据覆盖,HCatalog不允许数据覆盖,每次都只是追加。

字段
Sqoop方式比较随意,不要求源表和目标表字段相同(字段名称和个数都可以不相同),它抽取的方式是将字段按顺序插入,比如目标表有3个字段,源表有一个字段,它会将数据插入到Hive表的第一个字段,其余字段为NULL。但是HCatalog不同,源表和目标表字段名需要相同,字段个数可以不相等,如果字段名不同,抽取数据的时候会报NullPointerException错误。HCatalog抽取数据时,会将字段对应到相同字段名的字段上,哪怕字段个数不相等。

针对不同字段名,想要使用HCatalog方式将数据插入,可以使用下面的方式:

sqoop import \
--connect jdbc:mysql://localhost:3306/test\
--username 'root' \
--password 'root' \
--query "SELECT order_no_src as order_no_target  FROM driver_action WHERE \$CONDITIONS" \
--hcatalog-database test \
--hcatalog-table driver_action \
--hcatalog-partition-keys pt \
--hcatalog-partition-values 20200104 \
--hcatalog-storage-stanza 'stored as orc tblproperties ("orc.compress"="SNAPPY")' \
--num-mappers 1

要将数据Sqoop导入Hive,可以按照以下步骤进行操作: 1. 使用Sqoop导入命令,通过`--target-dir`参数指定HDFS目录,将数据导入到HDFS中。\[1\] 2. 在Hive中创建表,可以使用Hive的DDL语句来定义表结构和字段类型。 3. 使用Hive的`LOAD DATA INPATH`命令,将HDFS中的数据移动到Hive表中。 需要注意的是,如果在Sqoop的查询语句中使用了`--query`选项,必须包含`$CONDITIONS`作为WHERE子句的一部分,否则会报错。\[2\] 此外,还可以使用HCatalog方式数据Sqoop导入Hive。HCatalog方式Sqoop方式的参数基本相同,只是个别参数有所不同。HCatalog支持更多的数据格式,例如ORC格式的表。\[3\] #### 引用[.reference_title] - *1* [sqoop 导入 hive](https://blog.csdn.net/mn_kw/article/details/90602320)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Sqoop导入数据库数据Hive两种方式](https://blog.csdn.net/gxd520/article/details/100152072)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值