编译Spack源码

版本说明

Hadoop:2.6.0-cdh5.15.1
JDK:1.8.0
Spark:2.4.4
Maven:Spark源码内置,路径:spark-2.4.4/build/mvn
以上软件都需要提前设置好环境变量,但是Maven, Scala和Zinc在编译的时候会自动下载对应版本到build/目录下,所以不需要提前安装。

修改pom.xml

spark-2.4.4/pom.xml

  1. 增加cloudera的repository

    <repository>
     	<id>cloudera</id>
        <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
    </repository>
    
  2. 关闭zinc

    <useZincServer>false</useZincServer>
    

Spark默认版本说明

spark-2.4.4/pom.xml文件中我们可以看到,默认使用的是Hadoop2.6.5,这个小版本和我们当前的2.6.0-cdh5.15.1还是存在差异的,所以需要用-Dhadoop.version=2.6.0-cdh5.15.1指定版本号
在这里插入图片描述
执行命令:./build/mvn -Pyarn -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.15.1 -DskipTests clean package
说明:使用Yarn、Hive和ThriftServer,重设Hadoop版本为2.6.0-cdh5.15.1
第一次执行会比较慢,大概要1~2个小时。

还有另一种方式可以生成一个可以执行的包,执行命令:./dev/make-distribution.sh --name 2.6.0-cdh5.15.1 --tgz -Pyarn -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.15.1,其实就是对上面的命令进行了一个封装,推荐使用这种方式。
编译完成后,会生成一个名为spark-2.4.4-bin-2.6.0-cdh5.15.1.tgz的包,解压后即可以使用。

本地启动

  1. 配置环境变量
  2. 进入$SPARK_HOME,执行./bin/spark-shell --master local[2],可以看到如下内容即为成功
    在这里插入图片描述
    注意,可以通过红框圈出来的地址去访问Spark的作业执行情况。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值