Spark编译打包

一、文档说明

1.1、文档描述

Spark官网上提供的是已经编译打包好了的软件,这为我们学习和使用spark提供了方便,但是在真实的生产环境中部署spark组件,为了保证spark和hdfs以及yarn 的兼容性,我们需要自己来编译spark源码。本文描述了如何使用maven来编译打包spark源码

 

1.2、阅读对象

Spark 开发运维以及正在学习spark的同学

 

二、编译打包介绍

2.1、编译环境准备

操作系统:centos 6.8

JDK版本:jdk1.8.181(centos 6 系统中推荐使用1.8.121及以上的版本)

Maven:3.6.2(maven 中央仓库配置为阿里云仓库,仓库地址见文末附录1)

Spark源码版本:spark-2.4.4-rc3

 

2.2、编译步骤

步骤1:在shell中先修改maven编译时候的jvm参数

export MAVEN_OPTS="-Xmx2g -XX:ReservedCodeCacheSize=512m"

 

步骤2:然后进入到sspark-2.4.4-rc3目录下在shell 中输入

cd /xxx/ spark-2.4.4-rc3

 

步骤3:先执行一遍clean install 命令,将spark的所有依赖全部安装到本地,因为由于每个人的环境不同,很可能不能一次就成功编译。强烈建议先执行一遍此步骤

mvn -DskipTests clean install

 

步骤4:等待命令执行成功后在执行如下编译打包指令,在shell 中输入

./dev/make-distribution.sh --name "spark3" --tgz "-Pyarn,Hadoop-provided,hadoop-2.7,parquet-provided,orc-provided,hive"

 

如果一直不能编译成功,且不是应为依赖下载不下来的原因,请打开Hadoop的源码,阅读Hadoop build 的方法,安装编译Hadoop所需要的依赖组件。然后再次执行上面的编译打包指令

 

附录1:阿里云中央仓库地址

<repository>

            <id>nexus-aliyun</id>

            <name>Nexus aliyun</name>

            <url>http://maven.aliyun.com/nexus/content/groups/public</url>

</repository>

如可以直接访问外网,则不建议配置阿里云为中央仓库

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值