将hive数据库中的数据导入到MySQL中的方式

天气炎热,写篇文章降降温,防止中暑。
大数据的数据转置过程中,经常需要将hive数据库中的数据迁移到MySQL等关系型数据库中。而目前市场上成熟的方案已经比比皆是,如利用sqoop的方式、kettle等中间工具。
今天正好闲来无事,考虑在不利于以上2种方式的情况下,成功将hive数据库中的数据导入到了MySQL中。以下为实例。

首先附上一张思路图:
在这里插入图片描述
命题:在Hadoop的/file目录中,有一个全国各个城市的坐标(经纬度)文件(coordinate.txt),已利用“\t”分割。现在需要将其存入到hive数据库中,再将hive中的数据导入到MySQL数据库中。
在这里插入图片描述
一、在hive中建立一个实例:如liqx

create database liqx;

二、使用liqx实例,在其中建一张名为coordinate的表,通过“\t”的方式切割字段。(生产环境中涉及到每天的落地日志时,可以以年月日的方式来建立分区“partition”)
①、全国城市坐标(经度纬度):coordinate

CREATE TABLE `coordinate`(
  `code` string, 
  `name` string, 
  `longitude` string, 
  `latitude` string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

附上分区(“year”、“month”、“day”)代码:

CREATE TABLE `coordinate`(
  `code` string, 
  `name` string, 
  `longitude` string, 
  `latitude` string)
partitioned by (year string,mounth string,day string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

三、使用load方式将hdfs中的coordinate.txt文件导入到hive数据库中

load data inpath '/user/hive/warehouse/coordinate.txt' into table coordinate;

四、查看一下数据,总共3521行数据
在这里插入图片描述
五、在MySQL数据库中创建一张名为“coordinate”的表
在这里插入图片描述
#建表语句#

CREATE TABLE `coordinate` (
  `code` varchar(12) NOT NULL COMMENT '编码',
  `name` varchar(50) DEFAULT NULL COMMENT '城市名称',
  `longitude` double DEFAULT NULL COMMENT '经度',
  `latitude` double DEFAULT NULL COMMENT '纬度',
  PRIMARY KEY (`code`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

六、编写shell脚本,先查询hive,并将得到的结果重定向为txt文件,再将txt文件load到MySQL数据库中

①:创建一个名为coordinate.sh的shell脚本,并给予可执行权限

touch coordinate.sh

chmod +x coordinate.sh

②:查询hive,并将得到的结果重定向为txt文件

hive -e "select * from liqx.coordinate" > /home/data/etl/coordinate/coordinate.txt

③:再将txt文件load到MySQL数据库中

mysql -h192.168.133.135 -uroot -proot test  -e "load data local INFILE '/home/data/etl/coordinate/coordinate.txt' INTO TABLE coordinate FIELDS TERMINATED BY '\t'"

④:再在各语句开始和结尾处进行时间监测,渲染一下后得到shell脚本如下
在这里插入图片描述
七、保存出后执行coordinate.sh文件(执行过程中可再打开一个窗口通过hadoop job -list 查看Hadoop任务)
在这里插入图片描述在这里插入图片描述
八、通过ll命令可查看到目录中多了一个coordinate.txt文件,即shell脚本中执行hive查询后得到的内容,通过more coordinate.txt命令可对文件内容进行查看
在这里插入图片描述
九、再去MySQL中进行查询,验证数据是否被load到coordinate表中
在这里插入图片描述
十、比较hive、txt、MySQL中数据量是否一致

select count(1) from liqx.coordinate;

wc -l coordinate.txt

select count(1) from test.coordinate;

在这里插入图片描述在这里插入图片描述
在这里插入图片描述
然后洗澡睡觉,防掉发、防猝死。

  • 14
    点赞
  • 55
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
可以使用以下两种方法将Hive数据导入MySQL: 1. 使用Sqoop导出数据MySQL Sqoop是一个开源工具,用于在Hadoop和关系型数据库间进行数据传输。以下是导出数据MySQL的示例命令: ``` sqoop export \ --connect jdbc:mysql://mysql_host:port/mysql_database \ --username mysql_username \ --password mysql_password \ --table mysql_table \ --export-dir hive_table \ --input-fields-terminated-by ',' \ --input-lines-terminated-by '\n' \ --input-null-string '\\N' \ --input-null-non-string '\\N' ``` 其mysql_host是MySQL主机名或IP地址,port是MySQL端口号,mysql_database是MySQL数据库名称,mysql_username和mysql_password是MySQL登录凭据,mysql_table是要导入MySQL表名,hive_table是要导出的Hive表名。 2. 使用Hive自定义输出格式将数据导出到MySQL Hive支持自定义输出格式,可以将数据输出为文本文件,并使用LOAD DATA命令将其导入MySQL。以下是使用Hive自定义输出格式将数据导出到MySQL的示例命令: ``` INSERT OVERWRITE DIRECTORY '/tmp/hive_output' ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' SELECT * FROM hive_table; LOAD DATA LOCAL INFILE '/tmp/hive_output' INTO TABLE mysql_table FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n'; ``` 其hive_table是要导出的Hive表名,mysql_table是要导入MySQL表名。在第一条命令,将数据输出为以逗号分隔的文本文件,存储在/tmp/hive_output目录。在第二条命令,使用LOAD DATA命令将文本文件导入MySQL。请注意,LOAD DATA命令需要在MySQL客户端执行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值