Spark安装与配置(单机版)(保姆级教程)

Spark简述:

Spark:快速通用的大规模数据处理引擎,特点是速度快,易使用。

Spark安装前准备工作:

1、安装配置好jdk,如果不会安装可以跳转到脚本安装jdk保姆级教程
2、搭建配置好Hadoop,如果不会配置安装可以跳转到Hadoop配置保姆级教程
3、安装好Scala,如果不会安装可以跳转到Linux下安装配置Scala保姆级教程

Spark安装步骤:

1、通过xftp将spark安装包上传到Linux中,版本是spark-2.4.5-bin-hadoop2.6.tgz

2、解压缩tar -zxf spark-2.4.5-bin-hadoop2.6.tgz -C ../soft/

3、为了方便以后使用,将解压缩后的文件夹修改名字mv spark-2.4.5-bin-hadoop2.6/ spark245

4、配置环境变量vim /etc/profile

#spark
export SPARK_HOME=/opt/soft/spark245
export PATH=$PATH:$SPARK_HOME/bin

5、首先先做个备份 cp spark-env.sh.template spark-env.sh
然后修改配置文件,在最后添加如下代码

export JAVA_HOME=/opt/soft/jdk180
export SCALA_HOME=/opt/soft/scala211
export SPARK_HOME=/opt/soft/spark245
export HADOOP_INSTALL=/opt/soft/hadoop260
export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
export SPARK_MASTER_IP=nnode1
export SPARK_DRIVER_MEMORY=2G
export SPARK_EXECUTOR_MEMORY=2G
export SPARK_LOCAL_DIRS=/opt/soft/spark245

6、因为是单机版,不需要去配置slaves,但是也可以配置一下,cp slaves.template slaves先做个备份,然后vim slaves,将localhost修改为自己的主机名

7、启动/关闭spark,进入到sbin目录下,看到有很多的命令,spark也有start-all.sh和stop-all.sh命令,所以直接./用就行了。

8、打开浏览器,输入主机名:8080就可以看到spark的可视化页面了
在这里插入图片描述
至此,spark单机版安装配置完成了~

  • 7
    点赞
  • 63
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
要在Mac上安装和配置Spark,可以按照以下步骤进行操作: 1. 首先,确保你的Mac上已经安装了Java Development Kit(JDK)。你可以通过在终端中运行以下命令来检查是否已安装JDK: ```shell java -version ``` 如果输出显示了Java版本信息,则表示JDK已安装。否则,你需要先安装JDK。 2. 访问Apache Spark官方网站(https://spark.apache.org/)并下载最新版本的Spark。 3. 将下载的Spark压缩包解压到任意目录。你可以将其解压到你的用户主目录下的一个子目录中,比如`~/spark`。 4. 打开终端,并使用以下命令进入到Spark目录: ```shell cd ~/spark ``` 5. 在终端中,将以下命令添加到你的`.bash_profile`或`.bashrc`文件中,以配置Spark的环境变量: ```shell export SPARK_HOME=~/spark export PATH=$PATH:$SPARK_HOME/bin ``` 6. 执行以下命令使环境变量生效: ```shell source ~/.bash_profile ``` 7. 接下来,你需要编辑Spark的配置文件。将`$SPARK_HOME/conf`目录下的`spark-env.sh.template`文件复制一份并重命名为`spark-env.sh`: ```shell cp $SPARK_HOME/conf/spark-env.sh.template $SPARK_HOME/conf/spark-env.sh ``` 8. 使用文本编辑器打开`spark-env.sh`文件,并添加以下内容: ```shell export JAVA_HOME=/path/to/your/jdk ``` 将`/path/to/your/jdk`替换为你的JDK安装路径,比如`/Library/Java/JavaVirtualMachines/jdk1.8.0_291.jdk/Contents/Home`。 9. 保存并关闭`spark-env.sh`文件。 10. 现在,你可以启动Spark了。在终端中执行以下命令: ```shell spark-shell ``` 如果一切正常,你将看到Spark的启动信息并进入Spark的交互式Shell。 希望这些步骤能够帮助你在Mac上成功安装和配置Spark!如果你遇到任何问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

万家林

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值