Spark综合学习笔记(二十七)SparkSQL整合Hive-1 SparkSQL命令行

52 篇文章 2 订阅
14 篇文章 0 订阅
本文详细介绍了SparkSQL如何与Hive进行集成,包括HiveOnSpark与SparkOnHive的区别,以及Spark3.0.1整合Hive的要求。重点讲述了SparkSQL通过读取Hive元数据进行操作的过程,包括启动Hive metastore,配置hive-site.xml,以及在Spark端创建表、加载数据并与Hive端进行验证的步骤。
摘要由CSDN通过智能技术生成

学习致谢 [

https://www.bilibili.com/video/BV1Xz4y1m7cv?p=64](https://www.bilibili.com/video/BV1Xz4y1m7cv?p=64)

HiveOnSpark和SparkOnHive

·HiveOnSpark: SparkSql诞生之前的Shark项目使用的,是把Hive的执行引擎换成Spark,剩下的使用Hive的,严重依赖Hive,早就淘汰了没有人用了
·SparkOnHive: SparkSQL诞生之后,Spark提出的,是仅仅使用Hive的元数据(库/表/字段/位置等信息…),剩下的用SparkSQL的,如:执行引擎,语法解析,物理执行计划,SQL优化
在这里插入图片描述

·本质

0.注意:spark3.0.1整合hive要求hive版本>2.3.71.
注意:需要先启动Hive的metastore
SparkSQL集成Hive本质就是:SparkSQL读取Hive的元数据MetaStore·操作
1、启动Hive的元数据库服务hive所在机器node2上启动

nohup /export/server/hive/bin/hive --service metastore &

注意:Spark3.0需要Hive2.3.7版本
2、告诉SparkSQL:Hive的元数据库在哪里
哪一台机器需要使用spark-sql命令行整合hive就把下面的配置放在哪一台
也可以将hive-site.xml分发到集群中所有Spark的conf目录,此时任意机器启动应用都可以访问Hive表数据。

cd /export/server/spark/conf/
vim hive-site.xml

具体操作说明

1.到hive目录下找到hive-site.xml文件
在这里插入图片描述
复制到spark/conf/目录下
然后返回bin目录,看到spark-sql
在这里插入图片描述
保险起见,将jdbc的jar包提前放在jar/目录下

在这里插入图片描述
通过命令./spark-sql操作hive
在这里插入图片描述
2.hive端和spark端的对比
(1)在hive端查看数据库
在这里插入图片描述
(2)在hive端查看表,并查询person中的所有内容

show databases;
show tables;
select * from person;

在这里插入图片描述
(3)然后在spark端继续查看,可以看到和hive中一模一样,spark操作的就是hive的元数据
在这里插入图片描述
3、使用sparksql操作hive
(1)在spark端创建一个新的表person3

CREATE TABLE person3 (id int, name string. age int) row format delimited fields terminated by ' ';

在这里插入图片描述

(2)在hive端查看,看到已经同步

show tables;

在这里插入图片描述

(3)在spark导入数据

vim /root/person.txt
1 zhangsan 20
2 lisi 29
3 wangwu 25
4 zhaoliu 30
5 tianqi 35
6 kobe 40
LOAD DATA LOCAL INPATH 'file:///root/person.txt'INTO TABLE person3;
show tables;
select * from person3;

在这里插入图片描述
(4)在hive中查看

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值