编译spark源码使sparksql支持hive(cdh的)

一:首先设置maven的内存

export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"
二:在spark的目录下执行该命令(cd spark-1.3.0)
mvn -Pyarn -Dhadoop.version=2.6.0-cdh5.4.1 -Phive -Phive-thriftserver   -DskipTests clean package
三:编译完成之后,执行以下命令生成bin包
./make-distribution.sh --name custom-spark --skip-java-test --tgz -Pyarn -Dhadoop.version=2.6.0-cdh5.4.1  -Phive -Phive-thriftserver
备注:
        要注意相应的版本,Scala的版本,Hadoop hive cdh版本对应等。

阅读更多
上一篇Scala变量
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页

关闭
关闭