spark伪分布式及全分布式部署

本文详细介绍了如何在Linux系统上部署Spark,包括从官方网站下载安装包,进行解压和配置,以及区分伪分布式和全分布式两种模式的设置步骤。在伪分布式设置中,所有配置都在同一台机器上完成,而在全分布式设置中,涉及多台机器的配置和启动。
摘要由CSDN通过智能技术生成

1.从spark官网下载安装包,网址:https://spark.apache.org/downloads.html

  我这里以spark-2.3.3-bin-hadoop2.7.tgz为例

2.在Linux系统安装spark:

    首先将spark安装包拷贝到Linux系统上(拷贝过程不再赘述),将spark解压到某个文件夹下(具体哪个文件夹根据个人的需要),解压命令:tar -zxvf *****/spark-2.3.3-bin-hadoop2.7.tgz(spark安装包所在的路径) -C **/**/(解压到某个文件夹的路径)

3.解压完成后,接下来进行配置

伪分布式

    以下涉及到的所有路径都是我个人的安装路径,仅用来参考,与你的路径不一样,完全正常.

    1.进入到spark的安装目录下: cd /opt/module/spark-2.1.0-bin-hadoop2.7/

    2.进入到conf目录下 : cd conf/

    3.将spark-env.sh.template文件重命名,拷贝一份:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值