Linux查找spark安装目录,linux上独立安装部署spark

本文详细介绍了在Linux上以Standalone Mode安装部署Spark的步骤,包括安装JDK、Scala,配置环境变量,修改配置文件,启动Spark以及验证安装是否成功。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

下面讲一下linux上安装spark,以?Standalone Mode 安装

?

1)首先安装JDK

?

下载JDK:jdk-7u79-linux-x64.tar.gz ?,版本是1.7以上都行,解压 tar -zxvf?jdk-7u79-linux-x64.tar.gz ?

?

然后配置 ~/.bashrc?

增加

export JAVA_HOME=/cdh/jdk1.7.0_79

export JRE_HOME=${JAVA_HOME}/jre

export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

?

export PATH=${JAVA_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:$PATH

?

source .bashrc

?

验证: java -version能正常运行则说明安装成功

?

2)安装scala

?

?

3) 安装spark

?

(2)将spark-1.4.0-bin-cdh4.tgz移到根目录,并解压

tar?-zxvf?spark-1.4.0-bin-cdh4.tgz

(3)配置环境变量

SPARK_HOME=/spark-1.4.0-bin-cdh4

path=$path:$SPARK_HOME/bin

(4)修改配置文件

1)cd? /spark-1.4.0-bin-cdh4/conf?

2)mv?spark-env.sh.template?spark-env.sh

3)vi?spark-env.sh

添加以下内容:

export?SCALA_HOME=/scala-2.11.6

export?JAVA_HOME=/cdh/jdk1.7.0_79

export?SPARK_MASTER_IP=192.168.212.15

export?SPARK_WORKER_MEMORY=1024m?

export?master=spark://192.168.212.15:7070

4)修改slaves文件

mv?slaves.template??slaves

vi?slaves

添加一下内容:

slave1

slave2

(5) 将/spark-1.4.0-bin-cdh4目录复制到work节点

? (6)启动spark

pwd

/spark-1.4.0-bin-cdh4/sbin

执行?./start-all.sh?命令。

注意,hadoop也有start-all.sh脚本,因此必须进入具体目录执行脚本,启动界面如下:

? ? ? ? (7)验证

1)在master节点上执行jps

30859?Jps

30172?Master

2)在slaves节点上执行jps

30302?Worker

30859?Jps

(7)验证安装情况

1)运行自带示例

启动spark sql?

? ? ? ? ? ? ? ? ? ? ? ? ?进入spark_home/bin/ 运行 ./spark-sql?

2)查看集群环境

http://master:8080/

3)进入spark-shell

$spark-shell

4)查看jobs等信息

http://master:4040/jobs/

原文:http://daizj.iteye.com/blog/2227127

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值