spark安装配置

一、下载scala

1.下载

2.root命令下输入(或者+sudo)

tar -zxvf scala-2.10.7.tgz -C /usr/hadoop/

3.配置

vim /etc/profile

输入:

export SCALA_HOME=/usr/hadoop/scala-2.10.7
export PATH=$PATH:$SCALA_HOME/bin

 保存,退出

4.source  /etc/profile (root用户或+sudo)

成功截图

二、安装spark

1.下载解压

下载路径:Index of /dist/spark/spark-2.4.3

(root用户)

tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz -C /usr/hadoop/spark

下载后解压,到/usr/hadoop/spark目录下

2.配置环境

1)vim /etc/profile

export SPARK_HOME=/usr/hadoop/spark/spark-2.4.3-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/sbin

2) spark-env.sh配置

如果没有spark-env.sh

找到spark-env.sh.template

cd /usr/hadoop/spark/spark-2.4.3-bin-hadoop2.7/conf
cp spark-env.sh.template spark-env.sh

vim spark-env.sh

添加代码:

export JAVA_HOME=/usr/hadoop/jdk1.8.0_201
export HADOOP_CONF_DIR=/usr/hadoop/hadoop-2.8.5/etc/hadoop
export SPARK_MASTER_IP=master
export SPARK_MASTER_HOST=master
export SPARK_LOCAL_IP=master
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_MEMORY=1g
export SPARK_WORKER_CORES=2
export SPARK_MASTER_WEBUI_PORT=8088

注意:export SPARK_LOCAL_IP=master 在子节点中需要将master改为子节点的名称

3)slaves配置

slave1

slave2

4) 复制到其他节点
在master节点上安装配置完成Spark后,将整个spark目录拷贝到其他节点,并在各个节点上更新/etc/profile文件中的环境变量

5) 测试Spark

在master节点启动Hadoop集群

[root@master /hadoop-2.8.5]  # sbin/start-all.sh

在master节点启动spark

[root@master spark-2.4.3-bin-hadoop2.7]# sbin/start-all.sh 

master:

slave:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值