如果你不熟悉Linux,没关系,可以根据我之前写的JDK的安装学习一下,如果你真的是一点也看不懂,最好自己去学一下Linux的相关操作。
安装所需要的资源:链接:http://pan.baidu.com/s/1slTnrGT 密码:k30g(里面的jdk是32位,你需要去链接:http://pan.baidu.com/s/1kU8Q5wF 密码:key1 下载一个你自己需要的位数)
Spark的安装一共需要以下几个部分:
1 JDK的安装
2 Scala的安装
3 SSH互信
4 Hadoop的安装
5 Spark的安装
第一部分JDK的安装可以参照我的一篇文档http://download.csdn.net/detail/h66295112/9842175(这里可以下载,里面有图解)
或者参照我的博文http://blog.csdn.net/h66295112/article/details/71600568(少了一部分图,请原谅我的懒惰)
第二部分scala的安装可以参考我的博文,这个安装非常简单http://blog.csdn.net/h66295112/article/details/71600702
第三部分ssh互信可以参考我的博文,我的互信这里写的虽然简单,但是很实用,非常easy http://blog.csdn.net/h66295112/article/details/71600482
第四部分hadoop的安装可以参照我自己保留的一篇文档http://download.csdn.net/detail/h66295112/9842178
或者参照我的博文http://blog.csdn.net/h66295112/article/details/71600618(少了一部分图,请原谅我的懒惰)
第五部分spark的安装
配置spark
安装后,需要在 ./conf/spark-env.sh 中修改 Spark 的 Classpath,执行如下命令拷贝一个配置文件:
- 1
- 2
- 1
- 2
编辑 ./conf/spark-env.sh(vim ./conf/spark-env.sh) ,在最后面加上如下一行:
- 1
- 1
保存后,Spark 就可以启动了。
好了 到这里spark搭建完毕