1 java安装
2 ssh无密码登陆
1,2在安装hadoop2.6.0的时候已经安装好。
3 spark安装包解压
4 spark配置文件配置
文件 conf/slaves:增加3个节点
文件 conf/spark-env.sh:
拷贝安装目录到hadoop2,hadoop3:
启动集群:
浏览器访问:
5 客户端安装
将hadoop1上的安装目录拷贝到客户端机器上:
测试:使用spark-shell
在浏览器中查看: