一:首先设置maven的内存
export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"
二:在spark的目录下执行该命令(cd spark-1.3.0)
mvn -Pyarn -Dhadoop.version=2.6.0-cdh5.4.1 -Phive -Phive-thriftserver -DskipTests clean package
三:编译完成之后,执行以下命令生成bin包
./make-distribution.sh --name custom-spark --skip-java-test --tgz -Pyarn -Dhadoop.version=2.6.0-cdh5.4.1 -Phive -Phive-thriftserver
备注:
要注意相应的版本,Scala的版本,Hadoop hive cdh版本对应等。
二:在spark的目录下执行该命令(cd spark-1.3.0)
mvn -Pyarn -Dhadoop.version=2.6.0-cdh5.4.1 -Phive -Phive-thriftserver -DskipTests clean package
./make-distribution.sh --name custom-spark --skip-java-test --tgz -Pyarn -Dhadoop.version=2.6.0-cdh5.4.1 -Phive -Phive-thriftserver