SPARK编译的一些记录
标签(空格分隔): spark
由于发行版的spark-sql不支持一些比如‘insert overwrite directory’的特性,而在开发中确实需要使用到这些特性,之前的选择是使用livy来避开了这一特性,最近看到spark已经merge了这个特性的PR,于是尝试着编译,使用新的spark。
Spark编译
- 参考这篇文章 慕课网_Michael__PK
- 选择了使用spark的/dev/make-distribution.sh脚本进行编译,依赖的环境有JDK1.8,maven。我本地的maven版本是3.0.5,最好还是使用更新些的版本,直接执行
./dev/make-distribution.sh --name custom-spark --tgz -Phadoop-2.6 -Phive