SPARK编译的一些记录

本文记录了在编译Spark遇到的问题及解决方案,包括'Unsupported major.minor version 52.0'错误,Linux逻辑卷重新分区以及'insert overwrite directory'权限问题。通过调整JDK版本,修改CM配置,以及解决权限问题,成功运行Spark。
摘要由CSDN通过智能技术生成

SPARK编译的一些记录

标签(空格分隔): spark


由于发行版的spark-sql不支持一些比如‘insert overwrite directory’的特性,而在开发中确实需要使用到这些特性,之前的选择是使用livy来避开了这一特性,最近看到spark已经merge了这个特性的PR,于是尝试着编译,使用新的spark。

Spark编译

  • 参考这篇文章 慕课网_Michael__PK
  • 选择了使用spark的/dev/make-distribution.sh脚本进行编译,依赖的环境有JDK1.8,maven。我本地的maven版本是3.0.5,最好还是使用更新些的版本,直接执行
./dev/make-distribution.sh --name custom-spark --tgz  -Phadoop-2.6 -Phive
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值