SCALA、SPARK 完全分布式搭建实战

SPARK 完全分布式搭建实战

实验环境

  • Centos 7主机三台

主机名IP
master10.30.59.130
slave110.30.59.131
slave210.30.59.133

软件要求

软件名称软件版本
JDK8u77
Zookeeper3.4.5
Hadoop2.6.0
SCALA2.11.12
SPARK2.0.0-hadoop2.6
  • 软件约束

     1、安装包在 /opt/soft	
     2、安装目录在 /opt
    

先决条件

  • 各个主机已完成 主机名-IP 映射
  • 各个主机已完成ssh免密登录
  • ZooKeeper已部署完毕并启动
  • Hadoop已部署完毕并启动

搭建步骤:

安装Scala

一、解压组件
 [root@master ~]# cd /opt 
 [root@master opt]# tar -xzvf soft/scala-2.11.12.tgz 
 [root@master opt]# mv scala-2.11.12/ scala 
二、配置环境变量并令其立即生效
  • hadoop-etc.sh文件新增两条
[root@master opt]# vi /etc/profile.d/hadoop-etc.sh
export SCALA_HOME=/opt/scala
export PATH=$PATH:$SCALA_HOME/bin
​
[root@master opt]# source /etc/profile.d/hadoop-etc.sh

安装SPARK

一、解压组件
[root@master opt]# tar -xzvf soft/spark-2.0.0-bin-hadoop2.6.tgz 
[root@master opt]# mv spark-2.0.0-bin-hadoop2.6/ spark 
二、填写配置文件

注意:
spark-env.sh文件内的”SPARK_LOCAL_IP”在使用scp同步后需要根据实际的主机名填写

[root@master opt]# cp spark/conf/spark-env.sh.template spark/conf/spark-env.sh
[root@master opt]# vi spark/conf/spark-env.sh
HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
SPARK_MASTER_IP=master 
SPARK_LOCAL_IP=master
[root@master opt]# cp spark/conf/slaves.template spark/conf/slaves
[root@master opt]# vi spark/conf/slaves
master
slave1
slave2 
三、修改冲突文件名
[root@master opt]# mv spark/sbin/start-all.sh spark/sbin/start-spark-all.sh
[root@master opt]# mv spark/sbin/stop-all.sh spark/sbin/stop-spark-all.sh
四、配置环境变量并令其立即生效
[root@master opt]# vi /etc/profile.d/hadoop-etc.sh
export SPARK_HOME=/opt/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin​
[root@master opt]# source /etc/profile.d/hadoop-etc.sh
五、同步两台slave节点的配置并令其环境变量立即生效
[root@master opt]# scp -r scala slave1:/opt 
[root@master opt]# scp -r scala slave2:/opt 
[root@master opt]# scp -r spark slave1:/opt 
[root@master opt]# scp -r spark slave2:/opt 
[root@master opt]# scp /etc/profile.d/hadoop-etc.sh slave1:/etc/profile.d 
[root@master opt]# scp /etc/profile.d/hadoop-etc.sh slave2:/etc/profile.d
  • 在slave节点上令其环境变量立即生效
[root@slave1 ~]# source /etc/profile.d/hadoop-etc.sh
[root@slave2 ~]# source /etc/profile.d/hadoop-etc.sh
六、启动SPARK
[root@master opt]# start-spark-all.sh 
[root@slave1 ~]# start-spark-all.sh 

实验验证

  • 访问以下页面,均有正常显示即可
  • http://master:8080/
    在这里插入图片描述
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

从此山水不相逢丶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值