IDEA 中使用 SparkSQL 远程连接 Hive

第一步,环境配置

首先,你要确保你的集群可以正常运行。

我们在 Windows 电脑中安装 Hadoop,并配置环境变量。注意,Hadoop 的版本必须和集群中的对应,然后将压缩包解压到你想要存放的地方。

我集群是 hadoop-2.7.7,所以 Windows 中也装这个版本。

将 Hadoop 的 Windows 依赖 winutils.exehadoop.dll 放入 bin 目录下。

依赖下载:Hadoop 的 Windows 依赖

注意,我在上面这个下载链接里放的依赖文件只支持 hadoop-3.1.0 及其以下的版本,如果比这个版本高的可以去官网下载依赖文件。

其它版本依赖下载: https://gitee.com/fulsun/winutils-1

配置 Windows 环境变量。

在 Windows 系统变量中新建 Hadoop 主目录和用户,以及添加 Path。

# 本地的安装目录
HADOOP_HOME

# 指定访问用户,建议用 root
HADOOP_USER_NAME

下滑找到 Path 变量,双击进入,然后新建两个 PATH,以指定 Hadoop 脚本路径。

%HADOOP_HOME%\sbin

%HADOOP_HOME%\bin

注意,环境变量需要重启电脑后才会生效。

第二步,IDEA 配置

将 Hive 的配置文件拷贝一份到 IDEA 项目中的 resource 目录下:

在这里插入图片描述

修改一下其中的连接地址:

在这里插入图片描述
改成集群的地址。
在这里插入图片描述
Hive 的存储路径前面加上 HDFS 的路径。

我看网上说还要放 core-site.xmlhdfs-site.xml,纯属扯淡。

在项目的 pom 文件中添加依赖:

    <dependencies>
        
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.12</artifactId>
            <version>3.0.0</version>
        </dependency>

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.12</artifactId>
            <version>3.0.0</version>
        </dependency>

        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <version>5.1.27</version>
        </dependency>

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-hive_2.12</artifactId>
            <version>3.0.0</version>
        </dependency>

    </dependencies>

第三步,授权

进入集群中的 MySQL,授予权限。

grant all privileges on *.* to hive@'%' identified by "root";

第四步,连接测试

扩展——华为云/阿里云集群

如果你使用的集群在华为云或者阿里云上,你需要先配置好集群的 hosts 映射文件,这就不用多说了吧。

如下所示:

在这里插入图片描述

其次就是你要对你的端口进行放行,配置安全规则。

如下所示:

在这里插入图片描述

华为云配置安全组教程

阿里云配置安全组教程

报错

在往 Hive 中插入数据时可能会报如下错误:

could only be replicated to 0 nodes instead of minReplication (=1). There are 1 datanode(s) running

修改集群中 Hadoop 的配置文件 hdfs-site.xml,添加如下参数:

 <property>
        <name>dfs.datanode.use.datanode.hostname</name>
        <value>true</value>
 </property>

表示 DataNode 之间的通信也通过域名方式。

然后在代码中也添加上这个参数,如下:

        val spark: SparkSession = SparkSession
                .builder()
                .appName("test")
                .master("local[*]")
                .config("dfs.client.use.datanode.hostname", "true")
                .enableHiveSupport()
                .getOrCreate()

完美解决这个问题。


任务完成了,但返回了如下错误:

ERROR KeyProviderCache: Could not find uri with key [dfs.encryption.key.provider.uri] to create a keyProvider !!

这个是由于你的路径中存在中文所引起的,不会对程序结果造成影响。在 Hadoop 2.8 版本以后这个错误则不会出现。

  • 4
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
### 回答1: 在IDEA使用Spark SQL远程连接Hive,需要进行以下步骤: 1. 首先,需要在IDEA添加Hive的JDBC驱动,可以通过Maven或手动添加方式进行。 2. 在代码创建SparkSession对象,并设置Hive的元数据存储位置和Hive的JDBC连接信息。 3. 使用SparkSession对象创建DataFrame或Dataset,并通过Spark SQL语句进行数据查询。 示例代码如下: ```java import org.apache.spark.sql.SparkSession; public class SparkHiveDemo { public static void main(String[] args) { SparkSession spark = SparkSession.builder() .appName("SparkHiveDemo") .config("spark.sql.warehouse.dir", "/user/hive/warehouse") .config("hive.metastore.uris", "thrift://hive-server-host:9083") .enableHiveSupport() .getOrCreate(); spark.sql("SELECT * FROM my_table").show(); spark.stop(); } } ``` 其,`hive.metastore.uris`参数需要设置为Hive的Metastore服务地址,`/user/hive/warehouse`为Hive的元数据存储位置。通过`enableHiveSupport()`方法启用Hive支持,可以直接使用Hive表名进行查询。 ### 回答2: Apache Spark是一个开源的分布式计算框架,可以提高数据处理和分析的效率。同时,Spark还提供了许多实用的API,包括Spark SQL。 它可以让用户使用SQL语言查询分布式数据集,从而简化了数据分析的工作流程。 HiveHadoop生态系统的一个数据仓库,它可以将结构化数据映射到Hadoop分布式文件系统Hive提供了一种将SQL查询转换为MapReduce作业的方法,使得在Hadoop平台上进行数据仓库的开发变得更加容易。 在使用Spark时,可以通过Spark SQL来执行Hive查询。 远程连接Hive需要注意以下几点: 1.配置Spark环境变量 首先,您需要确保Spark已正确配置以使用Hive。 您需要在spark-env.sh或spark-env.cmd文件设置以下环境变量: export HADOOP_CONF_DIR=/path/to/hadoop/conf export HIVE_CONF_DIR=/path/to/hive/conf 2.添加Hive JDBC驱动程序 在idea项目通过pom.xml配置以下的Hive JDBC驱动程序,以便Spark可以连接Hive。该驱动程序可以从以下位置找到: <dependency> <groupId>org.apache.hive</groupId> <artifactId>hive-jdbc</artifactId> <version>2.1.1</version> </dependency> 3.使用Spark SQL连接Hive 现在,使用以下代码片段来连接Hive: val spark = SparkSession.builder .appName("SparkHiveExample") .config("spark.sql.warehouse.dir", "/user/hive/warehouse") .config("hive.metastore.uris", "thrift://localhost:9083") .enableHiveSupport() .getOrCreate() 这些参数的含义如下: - appName:Spark应用程序的名称 - spark.sql.warehouse.dir:Hive数据仓库的目录 - hive.metastore.uris:Hive元数据存储的URI - enableHiveSupport():启用Hive支持 现在,您可以使用Spark SQL查询Hive表。例如,以下代码片段将从Hive选择数据: val df = spark.sql("SELECT * FROM myhiveTable") df.show() 总的来说,Spark SQL 提供了一个不错的方式来查询Hive。只需要正确配置环境变量、添加Hive JDBC驱动、使用Spark SQL连接Hive即可。这样,就可以通过Spark在分布式环境轻松地执行Hive查询,提高数据分析的效率。 ### 回答3: Spark是一个快速、分布式、通用的计算引擎,可以与多种数据源集成,包括关系型数据库、数据仓库和大数据存储系统。在这些数据源Hive是一个常见的大数据存储系统,用于存储和管理大量的结构化数据。Spark支持通过Spark SQL访问Hive数据,通过远程连接来实现跨集群访问Hive数据。 在Spark使用Spark SQL连接Hive需要以下步骤: 1. 配置SparkHive的环境。首先需要启用Hive支持,即在Spark的配置文件加入配置信息,如通过设置SPARK_DIST_CLASSPATH环境变量,将Hive的JAR包添加到Spark的CLASSPATH。 2. 连接集群Hive元数据。Spark需要访问Hive元数据来获取表的结构信息和分区等信息。通过设置Hive连接字符串和用户名密码等信息来连接Hive元数据。 3. 创建Spark程序来读取Hive数据。可以通过Spark SQL的API来创建DataFrame或者Dataset,接着可以使用DataFrame或者Dataset API来完成数据的处理和分析。 在实际使用过程,还需要注意以下问题: 1. 版本兼容性问题。要确保Spark版本和Hive版本兼容,否则在连接和查询数据时可能会出现异常。 2. 数据序列化和反序列化问题。在Spark读取Hive数据时需要将数据进行序列化和反序列化的操作,因此需要确保序列化和反序列化方法的正确性。 3. 性能问题。由于SparkHive运行在不同的集群之间,因此需要注意网络带宽和延迟等问题,以避免影响读取数据的性能。 总之,在使用需要仔细配置环境,并确保程序的正确性和性能,才能利用好SparkHive的强大功能,实现大数据的复杂分析和处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

月亮给我抄代码

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值