关闭

编译spark源码使sparksql支持hive(cdh的)

432人阅读 评论(0) 收藏 举报

一:首先设置maven的内存
export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"
二:在spark的目录下执行该命令(cd spark-1.3.0)
mvn -Pyarn -Dhadoop.version=2.6.0-cdh5.4.1 -Phive -Phive-thriftserver   -DskipTests clean package
三:编译完成之后,执行以下命令生成bin包
./make-distribution.sh --name custom-spark --skip-java-test --tgz -Pyarn -Dhadoop.version=2.6.0-cdh5.4.1  -Phive -Phive-thriftserver
备注:
        要注意相应的版本,Scala的版本,Hadoop hive cdh版本对应等。

0
0

查看评论
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
    个人资料
    • 访问:2694次
    • 积分:70
    • 等级:
    • 排名:千里之外
    • 原创:4篇
    • 转载:0篇
    • 译文:0篇
    • 评论:0条
    文章分类
    文章存档