Hive on Spark 搭建&踩坑

本文档介绍了如何在1C2G的ECS上配置Hive与Spark,强调了版本匹配的重要性,并提供了官方文档链接。配置包括在hive-site.xml、spark-env.sh、spark-default.conf中的改动,以及在YARN集群中的奴隶节点配置。启动流程包括启动Hive metastore、Hiveserver2和Spark,最后验证所有进程是否正常运行。
摘要由CSDN通过智能技术生成

背景:想通过jdbc连接hive的方式,用spark引擎,hive的数据,来处理业务需求。


环境:一台1C2G的ECS,渣渣机器;需要搭建集群的只需要更改yarn、slaves的配置即可。


接下来肯定会关注的问题就是版本了,版本的选择有千千万万种,这边的参考版本可在下面的参考配置中获得。


最关键的就是版本的匹配了,之前瞎配,最后会导致各种无法解决的问题。所以还是在动手前,先好好看看官方文档吧。


Hive和Spark版本匹配官方文档:

https://cwiki.apache.org/confluence/display/Hive/Hive+on+Spark:+Getting+Started


Spark和Hadoop、Scala、Java、Python等版本匹配官方文档:

http://spark.apache.org/documentation.html


----------------------------------------------------------------------------------------


首先配置Hive:

hive-site.xml增加或修改以下内容:


set spark.master=yarn-cluster;  //默认即为yarn-cluster模式,该参数可以不配置
set hive.execution.engine=spark;
set spark
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值