Spark集群安装搭建

1.下载Spark

Spark是一个独立的内存计算框架,如果不考虑存储的话,可以完全独立运行,因此这里就只安装Spark集群

Spark下载地址:       http://spark.apache.org/downloads.html

选择好Spark和Hadoop的版本之后就可以下载了,从2.0版本开始,Spark默认使用Scala2.11

2.上传解压

将Spark的压缩包上传到集群的某一台机器上,然后解压缩

3.进行Spark的配置文件的配置

进入到Spark的目录下

cd conf
mv  spark-env.sh.template spark-env.sh
vi spark-env.sh

在该配置文件中添加如下配置

export JAVA_HOME=你的jdk所在目录

配置slaves文件

mv slaves.template slaves
vi slaves

在slaves中添加你的Spark集群子节点机器的主机名或者ip

4.将配置好的Spark传输到集群的其他机器上

使用scp命令,如果集群机器特别多的话,可以使用shell编程来循环自动传输,这里不在详细说明

5.启动Spark

进入到Spark的主目录下

sbin/start-all.sh

使用jps命令可以看出,该Spark集群有一个Master,三个Work

 

Spark集群的WEBUI界面:             Master所在的主机ip:8080

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值