Spark集群模式的搭建

追风赶月莫停留,平芜尽处是春山。

环境

  • VMware 12.0.1
  • JDK 1.8.0
  • Hadoop 2.8.5
  • Python 3.6+

Spark 完全分布式模式的搭建

注意:若没有配置Hadoop环境请先配置Hadoop环境;若Python的版本不是3.6及以上的请先配置3.6以上的版本

一、下载安装包,解压到合适位置:

  1. 将压缩包 spark-3.0.3-bin-hadoop2.7.tgz,通过上传软件上传至/opt/softwares目录;
    解压软件包并移动至/opt/modules/

二、配置相关的文件:

  1. 配置spark-env.sh,该文件位于./conf目录下,需将spark-env.sh.template复制一份改名为spark-env.sh
    在该文件里追加:
    # 配置java环境变量
    export JAVA_HOME=/opt/modules/jdk1.8.0_171
    # 配置master的主机名
    export SPARK_MASTER_HOST=centos01
    # 配置端口号
    export SPARK_MASTER_PORT=7077
    
  2. 配置slaves,该文件位于./conf目录下,需将slaves.template复制一份改名为slaves
    在该文件里追加:
    centos02
    centos03
    
    分别为两个work节点的主机名。

三、将Spark分发到其他节点:

  1. 运行以下命令:
    scp -r /opt/modules/spark-3.0.3 root@centos02:/opt/modules
    scp -r /opt/modules/spark-3.0.3 root@centos03:/opt/modules
    

四、启动Spark:

$sbin/start-all.sh

spark-3.0.3/sbin目录下的start-all.sh文件 。

五、查看Spark是否启动成功

  1. 输入jps命令,在主节点上出现master,从节点上出现work即为启动成功。
  2. 进入spark/bin目录下,执行./pyspark若出现欢迎界面即为启动成功
    在这里插入图片描述
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

韩国麦当劳

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值