centos7部署spark伪分布式和完全分布式

一、伪分布式

  1. 下载安装压缩包spark官网
  2. 准备3台虚拟机,我这里的虚拟机主机名分别为 bigdata111、bigdata112、bigdata113
  3. 上传安装压缩包到虚机bigdata111的/opt/software【自己创建的目录】目录
  4. 将spark压缩包解压到指定目录
[root@bigdata111 scala]# cd /opt/software/
[root@bigdata111 software]# tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz -C /opt/module/
  1. 修改spark env配置文件
[root@bigdata111 software]# cd /opt/module/spark-2.1.1-bin-hadoop2.7/conf/
[root@bigdata111 conf]# cp spark-env.sh.template spark-env.sh
[root@bigdata111 conf]# vim spark-env.sh
# 在文件最后加上
# JAVA_HOME是jdk的安装目录
export JAVA_HOME=/opt/module/jdk1.8.0_192
export SPARK_MASTER_HOST=bigdata111
export SPARK_MASTER_PORT=7077
  1. 修改slaves文件
[root@bigdata111 conf]# vim slaves
注释localhost
加上bigdata111

8.启动spark

[root@bigdata111 sbin]# cd /opt/module/spark-2.1.1-bin-hadoop2.7/sbin/
[root@bigdata111 sbin]# ./start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /opt/module/spark-2.1.1-bin-hadoop2.7/logs/spark-root-org.apache.spark.deploy.master.Master-1-bigdata111.out
bigdata111: starting org.apache.spark.deploy.worker.Worker, logging to /opt/module/spark-2.1.1-bin-hadoop2.7/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-bigdata111.out
[root@bigdata111 sbin]#
  1. 查看是否启动成功,如果进程中有master和worker节点,说明启动成功
root@bigdata111 sbin]# jps
6273 Master
6338 Worker
6420 Jps
[root@bigdata111 sbin]#
  1. 访问spark管理页面
    http://bbigdata1111:8080/
    spark管理页面

二、完全分布式

master节点worker节点
bigdata111bigdata111,bigdata112,bigdata113
  1. 在伪分布式的基础上修改slaves文件
[root@bigdata111 conf]# vim slaves
加上
bigdata112
bigdata113
  1. 将整个spark目录分发到其他节点上

①bigdata112节点

[root@bigdata111 module]# cd /opt/module/
[root@bigdata111 module]# scp -r spark-2.1.1-bin-hadoop2.7/ bigdata112:/opt/module/

②bigdata113节点

[root@bigdata111 module]# scp -r spark-2.1.1-bin-hadoop2.7/ bigdata113:/opt/module/
  1. 在master上启动所有节点
[root@bigdata111 /]# cd /opt/module/spark-2.1.1-bin-hadoop2.7/sbin/
[root@bigdata111 sbin]# ./start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /opt/module/spark-2.1.1-bin-hadoop2.7/logs/spark-root-org.apache.spark.deploy.master.Master-1-bigdata111.out
bigdata111: starting org.apache.spark.deploy.worker.Worker, logging to /opt/module/spark-2.1.1-bin-hadoop2.7/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-bigdata111.out
bigdata112: starting org.apache.spark.deploy.worker.Worker, logging to /opt/module/spark-2.1.1-bin-hadoop2.7/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-bigdata112.out
bigdata113: org.apache.spark.deploy.worker.Worker running as process 2332.  Stop it first.
[root@bigdata111 sbin]#
  1. 查看spark管理页面,worker节点有3个节点信息
    http://bigdata111:8080/
    Spark完全分布式管理界面

虚拟机之间设置免密登陆步骤,设置免密登陆之后,虚拟机之间传输数据不用登陆

  1. 在各虚机上生成公钥,输入命令之后一直enter即可,生成一个私钥文件【id_rsa】 和一个公钥文件【id_rsa.pub】
ssh-keygen -t rsa
  1. 把公钥复制到需要免密登陆的虚机上

ssh-copy-id 主机名
① 主机1上

ssh-copy-id bigdata111
ssh-copy-id bigdata112
ssh-copy-id bigdata113

②主机2上

ssh-copy-id bigdata111
ssh-copy-id bigdata112
ssh-copy-id bigdata113

③主机3上

ssh-copy-id bigdata111
ssh-copy-id bigdata112
ssh-copy-id bigdata113
  1. 验证是否可免密登陆SSH
[root@bigdata111 sbin]# ssh bigdata112
Last login: Sun Mar 29 16:44:38 2020 from 192.168.2.1
[root@bigdata112 ~]# 
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值