Sqoop到Hive数据迁移方案

最近在项目中有个需求就是使用sqoop把数据迁移到hive中,以下是我做的一个总结。

数据集描述

Oracle源表(SQOOP_BITCOIN_DS)
在这里插入图片描述
Hive目标表(ods_sqoop_bitcoin_ds)

在这里插入图片描述

1.创建目标表

手动创建Hive目标表

由于Sqoop导入时自动创建表会自行推断字段类型,可能导致字段类型不准确,所有推荐使用手动创建
Hive目标表的形式来进行目标表创建

create table ods_sqoop_bitcoin_ds(
id int, timestamp_col string, open string, high int, low string, close string, volume_btc string, volume_currency string, weighted_price string
) row format delimited fields terminated by ','

Sqoop导入时建表

执行前需要将Oracle的jdbc连接驱动放到 $SQOOP_HOME 的 lib 目录下

sqoop create-hive-table \
--connect jdbc:oracle:thin:@//192.168.45.144:1528/lzjf \
--username root \
--password 123456 \
--table SQOOP_BITCOIN_DS \
--fields-terminated-by "," \
--lines-terminated-by "\n" \
--hive-table default.ods_sqoop_bitcoin_ds

2.Sqoop常规导入

sqoop import \ 
--connect jdbc:oracle:thin:@//192.168.44.144:1521/lzjf \ 
--username analysisdev \ 
--password analysisdev \ 
--table SQOOP_BITCOIN_DS \ 
--fields-terminated-by "," --lines-terminated-by "\n" \ 
--null-string 'null' --null-non-string 'null' \ 
--hive-import \ 
--create-hive-table \ 
--hive-table default.ods_sqoop_bitcoin_ds \ 
--delete-target-dir \
 --split-by "TIMESTAMP_COL" -m 1

使用文本字段进行拆分时需要加入”-Dorg.apache.sqoop.splitter.allow_text_splitter=true”,每个Map会在Hive对应 表目录下生成一个part数据文件

sqoop import "-Dorg.apache.sqoop.splitter.allow_text_splitter=true" \
--connect jdbc:oracle:thin:@//192.168.45.144:1528/lzjf \
--username root --password 123456 \
--table SQOOP_BITCOIN_DS \
--fields-terminated-by "," --lines-terminated-by "\n" \
--hive-import \
--hive-overwrite \
--create-hive-table \
--hive-table default.ods_sqoop_bitcoin_ds \
--delete-target-dir \
--split-by "TIMESTAMP_COL" -m 3

3.Sqoop增量导入

常规增量导入方式

增量导入有append模式和lastmodified模式,通过–incremental属性指定
1.append:追加,比如对大于last-value指定的值之后的记录进行追加导入
2.lastmodified:最后的修改时间,追加last-value指定的日期之后的记录(包括last-value那一条数 据),通过–merge-key可以更新数据

sqoop import \
--connect jdbc:oracle:thin:@//192.168.45.144:1528/lzjf \
--username root \
--password 123456 \
--table SQOOP_BITCOIN_DS \
--fields-terminated-by "," --lines-terminated-by "\n" \
--null-string 'null' --null-non-string 'null' \
--hive-import \
--hive-table default.ods_sqoop_bitcoin_ds \
--check-column TIMESTAMP_COL \
--incremental append \
--last-value "2003-01-01 22:54:00" \
--split-by "TIMESTAMP_COL" -m 1

Sqoop Job方式增量导入

由于常规的增量导入方式每次都需要用户手动指定–last-value,不利于通过任务调度来定时执行迁移任 务
因此Sqoop提供将迁移任务存储为Job的形式,直接通过执行Job脚本提交任务,Job提交的方式Sqoop
在每次执行任务的时候都会在记录上一次导入的–last-value并自动更新,下次执行迁移任务的–last- value就是上次迁移任务的最后一条数据
常用指令:
sqoop job –list(查询Job列表)
sqoop job –delete test_job(删除Job) sqoop job –exec test_job(执行Job)
使用Job方式导入Hive时需要将执行Job的用户添加到hadoop用户组,如下:

usermod -a -G hadoop root	# 将root用户添加到hadoop组

# 创建Job,注意-- import之间有空格sqoop job \
--create test_job \
-- import \
--connect jdbc:oracle:thin:@//192.168.45.144:1528/lzjf \
--username root \
--password 123456 \
--table SQOOP_BITCOIN_DS \
--fields-terminated-by "," --lines-terminated-by "\n" \
--null-string 'null' --null-non-string 'null' \
--hive-import \
--hive-table default.ods_sqoop_bitcoin_ds \
--check-column TIMESTAMP_COL \
--incremental append \
--last-value "2011-12-31 16:59:00" \
--split-by "TIMESTAMP_COL" -m 1

Sqoop Job方式增量导入(使用密钥文件)

上述的方式还有一点缺点是每次执行 sqoop job –exec xxx_job 的时候都需要手动输入数据库的访问密码,因此Sqoop也提供将密码保存为密钥文件的形式,在每次执行任务的时候访问密钥文件即可(密钥 文件存储在HDFS上)
通过这种方式,用户在定时调度Sqoop Job的时候只需要执行对应表的Job即可,可以很方便的通过脚本形式调度多张表(多个Job)的迁移任务

# 创建密钥文件
echo -n "123456" > oracle.pwd

# 上传密钥文件到HDFS
hadoop fs -put oracle.pwd /sqoop_pass
# 在sqoop配置文件sqoop-site.xml添加配置项
<property>
<name>sqoop.metastore.client.record.password</name>
<value>true</value>
<description>If true, allow saved passwords in the metastore.</description>
</property>

sqoop job \
--create test_job \
-- import \
--connect jdbc:oracle:thin:@//192.168.45.144:1528/lzjf \
--username root \
--password-file /sqoop_pass/oracle.pwd \
--table SQOOP_BITCOIN_DS \
--fields-terminated-by "," --lines-terminated-by "\n" \
--null-string 'null' --null-non-string 'null' \
--hive-import \
--hive-table default.ods_sqoop_bitcoin_ds \
--check-column TIMESTAMP_COL \
--incremental append \
--last-value "2011-12-31 07:52:00" \
--split-by "TIMESTAMP_COL" -m 3

4.定时调度

可以使用调度组件如Azkaban定时调度命令脚本调度Sqoop Job,也可以使用Linux自带的crontab进行任务调度
脚本可以参考如下示例:
在这里插入图片描述

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
手把手视频详细讲解项目开发全过程,需要的小伙伴自行百度网盘下载,链接见附件,永久有效。 课程简介 从零开始讲解大数据业务及数据采集和迁移需求,以案例驱动的方式讲解基于Sqoop构建高性能的分布式数据迁移和同步平台。 课程亮点 1,知识体系完备,从小白到大神各阶段读者均能学有所获。 2,生动形象,化繁为简,讲解通俗易懂。 3,结合工作实践及分析应用,培养解决实际问题的能力。 4,每一块知识点, 都有配套案例, 学习不再迷茫。 适用人群 1、对大数据感兴趣的在校生及应届毕业生。 2、对目前职业有进一步提升要求,希望从事大数据行业高薪工作的在职人员。 3、对大数据行业感兴趣的相关人员。 课程内容 第一章:企业数据迁移需求及解决方案 1.企业级数据迁移及同步需求 2.Sqoop的设计思想 3.Sqoop与Hadoop的关系 4.Sqoop的分布式实现原理 5.Sqoop的企业级版本选型 6.Sqoop的部署安装及配置 第二章:Sqoop数据导入实战开发 1.Sqoop导入开发参数详解 2.数据导入分布式文件系统HDFS 3.数据导入数据仓库Hive 4.基于复杂条件实现数据导入 5.基于订单案例实现Increment增量同步数据 6.基于订单案例实现lastModified增量同步导入数据 7.数据导入原理详解 第三章:Sqoop数据导出实战开发 1.Sqoop导出开发参数详解 2.基于MySQL实现数据导出 3.基于案例实现updateonly增量同步导出 4.基于案例实现allowinsert增量同步导出 5.数据导出原理详解 第四章:Sqoop企业级任务管理 1.企业级数据管理业务 2.Sqoop Job命令参数详解 3.基于订单案例实现Sqoop Job实战开发 4.Sqoop Job 任务管理
(7)使用Sqoop将MySQL数据导入到Hive的步骤: 1. 确保Sqoop已经正确安装和配置,并且Hive的元数据存储在MySQL中。 2. 在Hive中创建一个与MySQL表对应的Hive表。可以使用以下命令: ``` CREATE TABLE mydb.news ( id INT, title STRING, content STRING, publish_time TIMESTAMP ) STORED AS PARQUET; ``` 这将在Hive中创建一个新的Parquet格式的表,用于存储MySQL表中的数据。 3. 使用Sqoop将MySQL中的数据导入到Hive中。可以使用以下命令: ``` sqoop import \ --connect jdbc:mysql://mysql_host/mydb \ --username mysql_user \ --password mysql_password \ --table news \ --hive-import \ --hive-table mydb.news \ --incremental append \ --check-column id \ --last-value 0 \ --split-by id \ --target-dir /tmp/news ``` 其中,`--connect`参数指定MySQL数据库的连接信息,`--username`和`--password`指定MySQL数据库的用户名和密码,`--table`参数指定要导入的MySQL表名,`--hive-import`参数表示将数据导入到Hive中,`--hive-table`参数指定要导入到的Hive表名,`--incremental`参数表示增量导入数据,`--check-column`参数指定用于增量导入的列名,`--last-value`参数指定增量导入的起始值,`--split-by`参数指定用于拆分任务的列名,`--target-dir`参数指定导入数据的目录。 4. 最后,使用以下命令在Hive中查看导入的数据: ``` SELECT * FROM mydb.news; ``` 这将显示导入到Hive表中的数据。 (8)使用SqoopHive数据导入到MySQL的步骤: 1. 确保Sqoop已经正确安装和配置,并且Hive的元数据存储在MySQL中。 2. 在Hive中创建一个与MySQL表对应的Hive表。可以使用以下命令: ``` CREATE TABLE mydb.news ( id INT, title STRING, content STRING, publish_time TIMESTAMP ) STORED AS PARQUET; ``` 这将在Hive中创建一个新的Parquet格式的表,用于存储MySQL表中的数据。 3. 使用SqoopHive中的数据导出到MySQL中。可以使用以下命令: ``` sqoop export \ --connect jdbc:mysql://mysql_host/mydb \ --username mysql_user \ --password mysql_password \ --table news \ --export-dir /user/hive/warehouse/mydb.db/news \ --input-fields-terminated-by ',' \ --update-key id \ --update-mode allowinsert \ --input-null-string '\\N' \ --input-null-non-string '\\N' ``` 其中,`--connect`参数指定MySQL数据库的连接信息,`--username`和`--password`指定MySQL数据库的用户名和密码,`--table`参数指定要导出到的MySQL表名,`--export-dir`参数指定要导出的Hive表的目录,`--input-fields-terminated-by`参数指定Hive表中的字段分隔符,`--update-key`参数指定用于更新的列名,`--update-mode`参数指定更新模式,`--input-null-string`和`--input-null-non-string`参数指定Hive表中的空值。 4. 最后,使用以下命令在MySQL中查看导入的数据: ``` SELECT * FROM mydb.news; ``` 这将显示导入到MySQL表中的数据

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值