配置hive on spark

本文介绍了如何将Hive与Spark集成,包括将Sparkjar包上传到HDFS,修改hive-site.xml配置文件以指定Spark依赖位置和执行引擎为Spark,以及设置连接超时时间。最后通过插入数据测试配置是否成功。
摘要由CSDN通过智能技术生成

配置hive on spark

1、上传 Spark 纯净版 jar 包到 HDFS:

hdfs dfs -mkdir /spark-jars
hdfs dfs -put /opt/spark/jars/* /spark-jars

2、修改 hive-site.xml 文件,添加如下配置:

    <!--Spark 依赖位置(注意:端口号必须和 namenode的端口号一致)-->
    <property>
     	<name>spark.yarn.jars</name>
     	<!--<value>hdfs://hadoop:8020/spark-jars/*</value>-->
    <value>hdfs://hadoop:9000/spark-jars/*</value>
    </property>
    <!--Hive 执行引擎-->
    <property>
     	<name>hive.execution.engine</name>
     	<value>spark</value>
    </property>
    <!--Hive 和 Spark 连接超时时间-->
    <property>
     	<name>hive.spark.client.connect.timeout</name>
     	<value>10000ms</value>
    </property>

2、测试hive on spark是否配置成功。

往数据库表default.student中添加数据:insert into student values(‘haoge’,22);

本文仅用于参考学习,参考原文:
https://blog.csdn.net/weixin_45417821/article/details/115268740

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值