Spark3.X 编译源码支持hive(亲测可用)

12 篇文章 0 订阅
5 篇文章 0 订阅
本文介绍了如何在Linux环境下,通过源码编译方式获取支持Hive的Apache Spark 3.0.3版本。首先确保配置好Maven,然后下载Spark源码,接着在源码目录执行指定的编译命令,等待打包完成,最终得到集成Hive的Spark发行版。这个过程对于需要特定Hive版本的Spark用户非常实用。
摘要由CSDN通过智能技术生成
   Spark官网提供的编译版本默认是不支持Hive的,今天就给大家介绍采用源码编译方法得到支持Hive的Spark版本

一、配置maven

maven配置比较简单,我们就参考 Linux配置Maven_allofme022的博客-CSDN博客_linux配置maven

我们要确保mvn可用,可以检查下配置的maven信息

执行 mvn -version,输出如下证明maven配置正确

二、下载源码

我们下载spark的源码

去官网下载 Downloads | Apache Spark,选择版本3.0.3的源码下载

三、编译

首先解压刚才下载的源码文件到sparksrc

在解压根目录 /software/sparksrc/spark-3.0.3 执行

./dev/make-distribution.sh --tgz --name h31hive --mvn mvn -Pyarn -Phadoop-3.1 -Dhadoop.version=3.1.3 -Phive -Phive-thriftserver -DskipTests

执行后,maven就开始打包了,因为要下载很多包文件,具体看网速快慢,国内源会快一些,大概30多分钟,如下图

 打包的jar文件路径信息也输出如下

我们执行ll,列出文件

 已经有了spark-3.0.3.tgz这个打好的包,这个包就是集成了hive3.1.3的包,我们可以使用这个包安装部署spark了

 总结
        感谢能看到这里的朋友😉

        本次的分享就到这里,猫头鹰数据致力于为大家分享技术干货😎

        如果以上过程中出现了任何的纰漏错误,烦请大佬们指正😅

        受益的朋友或对技术感兴趣的伙伴记得点赞关注支持一波🙏

        也可以搜索关注我的微信公众号【猫头鹰数据分析】,留言交流🙏

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

终极量化数据

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值