Spark1.5.2伪分布式安装
一、安装包准备
1. spark-1.5.2-bin-hadoop2.6
2. scala-2.11.7
要安装spark,首先在虚拟机中安装hadoop,我的虚拟机中已经安装了hadoop,所以此步骤略过。
二、安装Scala
1.解压scala压缩包并将文件夹改为scala
2.执行命令
vi /etc/profile,配置环境变量
3. 执行命令
source /etc/profile,使配置文件生效
4.查看是否安装成功
二、安装spark
1.解压spark压缩包并改名spark
2.执行命令vi /etc/profile,配置环境变量
3.执行命令source /etc/profile,使配置文件生效
4.进入spark目录下的conf目录,将spark-env.sh.template复制到spark-env.sh文件中
4.在spark-env.sh文件中加入以下内容
5.进入sbin目录,启动spark
6.查看spark是否启动成功
当看到worker和master时,说明spark启动成功
在浏览器下查看
安装成功!!!