SPark学习笔记:10 SparkSQL 数据源之Spark on Hive

概述

Apache Hive 是 Hadoop 上的 SQL 引擎,Spark SQL 编译时可以包含 Hive 支持,也可以不包含。包含 Hive 支持的 Spark SQL 可以支持 Hive 表访问、UDF(用户自定义函数)以及 Hive 查询语言(HiveQL/HQL)等。需要强调的一点是,如果要在 Spark SQL 中包含Hive 的库,并不需要事先安装 Hive。一般来说,最好还是在编译 Spark SQL 时引入Hive支持,这样就可以使用这些特性了。如果你下载的是二进制版本的 Spark,它应该已经在编译时添加了 Hive 支持。

SparkSQL可以连接到一个装好的Hive集群,也可以使用内置的Hive。如果使用内置的Hive,Spark SQL会在当前的工作目录下创建出自己的Hive元数据仓库,叫做metastore_db.Spark-shell默认是支持Hive的,代码中默认是不支持的,需要手动开启。

内嵌的Hive

使用外部的Hive

spark-shell使用外部的Hive

  • 1、安装好hive集群后,启动hive的metasore service。
    Tips: hive-site.xml文件中需要配置好hive.metastore.uris 的属性值,否则不能在外部进行远程连接hive。
[root@k8s-node3 software]# cd apache-hive-3.1.3-bin/
[root@k8s-node3 apache-hive-3.1.3-bin]# ls
bin                      conf      hcatalog  lib      NOTICE             scripts
binary-package-licenses  examples  jdbc      LICENSE  RELEASE_NOTES.txt
[root@k8s-node3 apache-hive-3.1.3-bin]# hive --service metastore & 
[1] 26582
[root@k8s-node3 apache-hive-3.1.3-bin]# 2022-07-26 11:02:03: Starting Hive Metastore Server
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/software/apache-hive-3.1.3-bin/lib/log4j-slf4j-impl-2.17.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/software/hadoop-3.3.1/share/hadoop/common/lib/slf4j-log4j12-1.7.30.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]

  • 2、将hive-site.xml文件拷贝到spark的$SPARK_HOME/conf/ 目录下

  • 3、将hadoop的hdfs-site.xml文件、core-site.xml文件拷贝到spark的$SPARK_HOME/conf/ 目录下

  • 4、将连接mysql驱动库的jar包(由于本人使用的是mysql8.0系列,所以是mysql-connector-java-8.0.11.jar)拷贝到$SPARK_HOME/jars/ 目录下

  • 5、启动spark-shell

[root@k8s-node3 bin]# ./spark-shell 
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
22/07/26 11:48:21 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Spark context Web UI available at http://k8s-node3:4040
Spark context available as 'sc' (master = local[*], app id = local-1658850502645).
Spark session available as 'spark'.
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /___/ .__/\_,_/_/ /_/\_\   version 3.3.0
      /_/
         
Using Scala version 2.12.15 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_333)
Type in expressions to have them evaluated.
Type :help for more information.

scala> spark.sql("show databases;").show
+---------+
|namespace|
+---------+
|  default|
+---------+


scala> spark.sql("show tables;").show
+---------+---------+-----------+                                               
|namespace|tableName|isTemporary|
+---------+---------+-----------+
|  default|  student|      false|
|  default| student2|      false|
|  default| student3|      false|
|  default| student4|      false|
+---------+---------+-----------+

scala> 

至此,在spark-shell中使用外部Hive的操作完成,可以打印出我外部Hive系统中表和schema信息。

Idea中连接外部的Hive

上面我们已经知道了如何在spark-shell中使用外部hive作为数据源了,那么在idea的代码中我们又将怎么操作呢。

  • 1、添加maven依赖
<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-exec</artifactId>
    <version>3.1.3</version>
</dependency>
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-hive_2.12</artifactId>
    <version>3.3.0</version>
</dependency>
<dependency>
    <groupId>mysql</groupId>
    <artifactId>mysql-connector-java</artifactId>
    <version>8.0.23</version>
</dependency>
  • 2、将hive-site.xml、hdfs-site.xml、core-site.xml文件拷贝到项目的resource目录中。
  • 3、外部hive同样需要开启hive metastore服务。
  • 4、开始编码
import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
object HiveDs {

  def main(args: Array[String]): Unit = {

    val conf:SparkConf = new SparkConf()
    conf.setAppName("hive-sql")
    conf.setMaster("local")

    val sparkSession = SparkSession.builder().config(conf)
      .enableHiveSupport()
      .getOrCreate()
    sparkSession.sql("show tables").show()
    val sql:String=
      """
        |CREATE TABLE SENSOR(
        |ID STRING NOT NULL,
        |TIMESTAMP BIGINT NOT NULL,
        |TEMPERATURE DECIMAL(5,2)
        |)
        |""".stripMargin

    sparkSession.sql(sql)

    sparkSession.close()
  }

}

配置 Spark beeline

Spark Thrift Server 是 Spark 社区基于 HiveServer2 实现的一个 Thrift 服务。旨在无缝兼容
HiveServer2。因为 Spark Thrift Server 的接口和协议都和 HiveServer2 完全一致,因此我们部
署好 Spark Thrift Server 后,可以直接使用 hive 的 beeline 访问 Spark Thrift Server 执行相关
语句。Spark Thrift Server 的目的也只是取代 HiveServer2,因此它依旧可以和 Hive Metastore
进行交互,获取到 hive 的元数据

步骤如下:

  • 1、同spark-shell中访问外部hive一样,需要将那几个xml文件、mysql的jar包按照上面的步骤拷贝到指定目录
  • 2、启动ThriftServer
[root@k8s-node3 spark-3.3.0-bin-hadoop3]# cd sbin/
[root@k8s-node3 sbin]# ls
decommission-slave.sh   start-all.sh                    start-slaves.sh         stop-master.sh                 stop-worker.sh
decommission-worker.sh  start-history-server.sh         start-thriftserver.sh   stop-mesos-dispatcher.sh       stop-workers.sh
slaves.sh               start-master.sh                 start-worker.sh         stop-mesos-shuffle-service.sh  workers.sh
spark-config.sh         start-mesos-dispatcher.sh       start-workers.sh        stop-slave.sh
spark-daemon.sh         start-mesos-shuffle-service.sh  stop-all.sh             stop-slaves.sh
spark-daemons.sh        start-slave.sh                  stop-history-server.sh  stop-thriftserver.sh
[root@k8s-node3 sbin]# ./start-thriftserver.sh 
starting org.apache.spark.sql.hive.thriftserver.HiveThriftServer2, logging to /home/software/spark-3.3.0-bin-hadoop3/logs/spark-root-org.apache.spark.sql.hive.thriftserver.HiveThriftServer2-1-k8s-node3.out

  • 3、使用beeline连接hive
[root@k8s-node3 bin]# ./beeline -u jdbc:hive2://k8s-node3:10000 -n root
Connecting to jdbc:hive2://k8s-node3:10000
Connected to: Spark SQL (version 3.3.0)
Driver: Hive JDBC (version 2.3.9)
Transaction isolation: TRANSACTION_REPEATABLE_READ
Beeline version 2.3.9 by Apache Hive
0: jdbc:hive2://k8s-node3:10000> show databases;
+------------+
| namespace  |
+------------+
| default    |
+------------+
1 row selected (1.335 seconds)
0: jdbc:hive2://k8s-node3:10000> show tables;
+------------+------------+--------------+
| namespace  | tableName  | isTemporary  |
+------------+------------+--------------+
| default    | student    | false        |
| default    | student2   | false        |
| default    | student3   | false        |
| default    | student4   | false        |
+------------+------------+--------------+
4 rows selected (0.397 seconds)
0: jdbc:hive2://k8s-node3:10000> 

可能遇到的问题

  • Unable to instantiate SparkSession with Hive support because Hive classes are not found.
Exception in thread "main" java.lang.IllegalArgumentException: Unable to instantiate SparkSession with Hive support because Hive classes are not found.
	at org.apache.spark.sql.SparkSession$Builder.enableHiveSupport(SparkSession.scala:891)
	at com.hjt.yxh.hw.sparksql.HiveDs$.main(HiveDs.scala:14)
	at com.hjt.yxh.hw.sparksql.HiveDs.main(HiveDs.scala)

这个是因为缺少spark-hive的jar包,在pom.xml中添加

<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-exec</artifactId>
    <version>3.1.3</version>
</dependency>
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-hive_2.12</artifactId>
    <version>3.3.0</version>
</dependency>
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark SQLSpark生态系统中的一个模块,用于在Spark中进行结构化数据处理。它提供了一个类似于SQL的查询语言,可以用于查询和操作数据。Spark SQL还提供了DataFrame API,可以用于以编程方式查询和操作数据。 Spark SQL on HiveSpark SQL的一个扩展,它允许Spark使用Hive元数据存储和查询数据。这意味着Spark可以使用Hive的表和分区,以及Hive的UDF和UDAF函数。Spark SQL on Hive还支持Hive的查询语言HQL。 因此,Spark SQLSpark SQL on Hive的区别在于Spark SQLSpark生态系统中的一个独立模块,而Spark SQL on HiveSpark SQL的一个扩展,它允许Spark使用Hive元数据存储和查询数据。 ### 回答2: Spark SQLSpark生态系统中的一个模块,它提供了一种用于Spark的交互式查询和分析数据的方式。Spark SQL支持不同的数据源,包括Hadoop HDFS,Apache Cassandra和Apache Hive。同时,Spark SQL还支持在SQL查询之外使用DataFrame API进行编程。 Spark SQL on Hive是指在Spark SQL中使用Hive数据源进行数据查询和分析。在使用Spark SQL on Hive时,Spark将会利用Hive的元数据和查询优化器来提高查询性能。这使得Spark SQL on Hive在企业环境中是一种极为常见的部署方式。 Spark SQLSpark SQL on Hive的主要区别在于数据源和优化器。Spark SQL可以与各种不同的数据源进行交互,而Spark SQL on Hive主要使用Hive元数据和优化器来处理数据。此外,Spark SQL也可以使用自己的优化器,它针对Spark SQL的特点进行了优化和改进。 另一个区别是在处理大规模数据时,Spark SQLSpark SQL on Hive表现更好。这是因为Spark SQL使用了自己的内存管理和优化策略,可以将大量的计算分布到多个节点上,从而处理更快、更高效。 综上所述,Spark SQLSpark SQL on Hive都是非常强大并且受欢迎的Spark模块,它们都具有广泛的应用和不同的优势。选择哪种模块取决于具体应用场景和需求。 ### 回答3: Spark SQLSpark 内置的一种 SQL 接口,用于操作分布式数据集(由 RDD 或 Spark 数据源构建)。Spark SQL 提供了一个 SQL 编程界面和 DataFrame API,让其与 SQL 数据仓库和传统数据仓库类似。 Spark SQL on Hive 是一个构建在 Hive 之上的 Spark SQL 解决方案。它允许 Spark SQL 直接操作 Hive 的数据仓库,使用 Hive 的方言(HiveQL)和元数据。Spark SQL on Hive 可以通过 Spark 操作 Hive 仓库来提供 SQL 查询和 HiveQL 查询功能。 由于 Spark SQL on Hive 是构建在 Hive 之上的,因此它提供了很多 Hive 的优点,比如先进的查询优化和元数据管理功能。它使用HDFS作为存储层,通过优化和管理查询计划来提高性能。 而 Spark SQL 直接使用 Spark 原生的内存计算引擎,不需要依赖于 Hive 的元数据解析和查询计划优化。这使得 Spark SQL 具有更好的实时性能和灵活性,可以直接在内存中操作数据。 总的来说,Spark SQL on Hive 主要是为了兼容 Hive 所提供的,而 Spark SQL 则是相对独立的一种 SQL 操作方式,更适合实时处理和大数据量的计算场景。Spark SQL on Hive 更适合用于传统的数据仓库和 BI 应用场景,而 Spark SQL 更适合用于实时数据处理和机器学习等高性能计算场景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值