Linux下安装spark集群

1、安装scala
2、安装Spark
3、配置Spark
修改配置文件spark-env.sh,在解压spark下的conf文件中

将模板文件复制出来
cp spark-env.sh.template spark-env.sh
cp slave.template slave

4、配置spark和slave

配置spark-env.sh(scala_home和java_home都是其安装路径)
export SCALA_HOME=/usr/soft/scala-2.13.0
export JAVA_HOME=/usr/soft/jdk-9.0.1
SPARK_MASTER_IP=192.168.136.132(自己的主节点IP)

5、启动Spark

进到以下目录(也是spark的安装路径下的sbin)
cd /home/hadoop/spark/spark-1.6.1/sbin
start-all.sh

6、使用jps查看进程
worker
jps
7、进入电脑浏览器输入主机名:8080可以查看spark的详细详细信息

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值