spark编译和生成部署包

有时候下载的spark不支持一些应用需要添加一些依赖,需要对spark进行编译。

比如我安装了ganglia集群,但是spark不支持要编译。

前提安装好MAVEN JAVA,我的系统是ubuntu

step1:官网或者GitHub上下载源码

step2:解压源码

step3:设置maven编译时的jvm方法区大小

set MAVEN_OPTS=-Xmx2g -XX:MaxPermSize=5120M -XX:ReservedCodeCacheSize=512m 

step4:编译

mvn -DskipTests -Pspark-ganglia-lgpl -Phadoop-2.6 -Dhadoop.version=2.6.0 clean package

最后生成源码包目录下生成jar包

step5:生成部署包

./dev/make-distribution.sh --name 2.6.0 --tgz  -Phadoop-2.6 -Pspark-ganglia-lgpl

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值