hadoop2.2.0安装spark1.1.0(maven编译)
1.环境配置hadoop-2.2.0
spark-1.1.0
maven-3.3.92.spark安装问题hadoop2.2.x版本支持spark1.1.0版本以及更低。而在目前spark官网上已经下载不到spark1.1.0版本(目前已经发布了spark2.0版本)。为了在机器上使用spark,选择了csdn上下载了spark1.1.0的源码,自己尝试编译。
编译的方法有两种:sbt以及ha
原创
2016-08-16 12:51:30 ·
511 阅读 ·
0 评论