hive on spark

  1. HDFS创建以下路径,用于存储相关jar包
hadoop fs -mkdir /Spark/spark-jars
  1. 解压缩spark-3.0.0-bin-without-hadoop.tgz并上传到上面目录,
tar -zxvf /opt/software/spark-3.0.0-bin-without-hadoop.tg
hadoop fs -put spark-3.0.0-bin-without-hadoop/jars/* /Spark/spark-jars
  1.  
  2. 修改hive-site.xml,增加如下内容
 <!--Spark依赖位置 -->
 <property>
   <name>spark.yarn.jars</name>
   <value>hdfs://hadoop102:8020/Spark/spark-jars/*</value>
 </property>
<!--Hive执行引擎-->
 <property>
   <name>hive.execution.engine</name>
   <value>spark</value>
 </property>
 <!--Hive连接Spark超时时间-->
 <property>
   <name>hive.spark.client.connect.timeout</name>
   <value>10000ms</value>
 </property>

 <property>
   <name>spark.master</name>
   <value>yarn</value>
 </property>
 <property>
   <name>spark.home</name>
   <value>/opt/module/spark</value>
 </property>
 <property>
   <name>spark.eventLog.enabled</name>
   <value>true</value>
 </property>
 <property>
   <name>spark.eventLog.dir</name>
   <value>hdfs://hadoop102:8020/Spark/spark-eventLog</value>
 </property>
 <property>
   <name>spark.executor.memory</name>
   <value>1g</value>
 </property>
 <property>
   <name>spark.serializer</name>
   <value>org.apache.spark.serializer.KryoSerializer</value>
 </property>
 <property>
    <name>spark.executor.instances</name>
    <value>4</value>
 </property>
 <property>
    <name>spark.executor.cores</name>
    <value>4</value>
 </property>

 4.出现这样的页面即算配置成功

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值