Spark2.2.1 on yarn 模式集群安装

假设集群有4台机器,主机名分别为:spark1、spark2、spark3、spark4。
一、前提条件

1、确保集群中已经安装好了hadoop-2.7

hadoop集群安装参考:http://blog.csdn.net/u011563666/article/details/50170465

2、确保集群中每台机器上已经安装好了scala-2.11


二、安装scala(若已经安装好了scala,请跳过该步骤)

我这里下载的是scala版本是scala-2.11.12

1、下载scala

2、解压

将scala安装在/opt目录下

tar -zxvf scala-2.11.12.tgz -C /opt/

3、配置scala环境变量

使用root用户配置

vim /etc/profile 在其中添加如下内容

export SCALA_HOME=/opt/scala-2.11.12

export PATH=$SCALA_HOME/bin:$PATH

4、使配置生效

source /etc/profile


三、安装spark-2.2.1

1、下载spark

2、解压安装包

将spark安装在/opt目录下

tar -zxvf spark-2.2.1-bin-hadoop2.7.tgz -C /opt

mv spark-2.2.1-bin-hadoop2.7 spark-2.2.1 (重命名)

3、配置spark

1)、配置spark运行环境

cp spark-env.sh.template spark-env.sh

vim spark-env.sh,在其中添加如下内容:

export SPARK_MASTER_IP=spark1	#设置spark1主机为master节点
export SCALA_HOME=/opt/scala-2.11.12
export SPARK_WORKER_MEMORY=8g
export JAVA_HOME=/opt/jdk1.8.0_121
export HADOOP_HOME=/part1/hadoop-2.7
export HADOOP_CONF_DIR=/part1/hadoop-2.7/etc/hadoop
2)、配置spark从节点,修改slaves文件
cp slaves.template.template slaves
vim slaves,其内容如下:
spark2
spark3
spark4

4、配置spark环境变量

使用root用户配置

vim /etc/profile 在其中添加如下内容

export SPARK_HOME=/opt/spark-2.2.1

export PATH=$SPARK_HOMEE/bin:$PATH

5、使配置生效

source /etc/profile

6、启动spark集群

在spark1主机上执行命令:start-all.sh

7、登录WebUI查看spark集群信息

http://spark1:8080/

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值