Mac上搭建spark开发环境

本文将介绍在Mac os上搭建Spark开发环境。

在安装spark环境之前,需要确保配置相应的java环境,jdk或者jre的版本需要在1.8.0版本以上。

(1)首先下载开发IDE,目前比较流行的IDE是IntelliJ IDEA,可以在官网下载使用,下载地址:https://www.jetbrains.com/idea/
Mac上搭建spark开发环境
(2)Spark环境搭建:
mac上启动终端,使用brew install scala命令(brew是一个软件包管理工具,类似于centos下的yum或者ubuntu下的apt-get),进行Scala的安装下载,如下:
Mac上搭建spark开发环境
到此scala的环境已经安装成功,现在我们从spark的官网下载spark相关环境,网址为:http://spark.apache.org/
Mac上搭建spark开发环境
下载完spark,进入到下载的spark包的文件夹下,执行tar -zxvf spark-2.3.1-bin-hadoop2.7.tar。

安装完scala以及spark后,进行相关环境变量的配置,执行vim /etc/profile命令,在其后追加如下环境变量:

export SCALA_HOME=/usr/local/Cellar/scala/2.12.4
export PATH=$PATH:$SCALA_HOME/bin
export SPARK_HOME=/Users/mengxin/Downloads/spark-2.3.1-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

(3)进行本机ssh配置,主目录执行以下命令:

ssh-keygen -t rsa -P ""

cat ~/.ssh/id_rsa.pub>>~/.ssh/authorized_keys

执行过程如下:
Mac上搭建spark开发环境
(4)检测下spark是否能启动

进入spark解压包下的sbin目录,执行./start-all.sh,如下图
Mac上搭建spark开发环境
可以在local.out文件下查看相关的启动情况。

spark启动后,所启动的master以及worker进程其实就是就是jvm进程,我们可以用jps命令看一下。
Mac上搭建spark开发环境

再用spark shell测试下,进入到spark安装包的bin目录下,如果出现如下界面,则说明spark安装环境已经大功告成了。
Mac上搭建spark开发环境

转载于:https://blog.51cto.com/6193721/2163571

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值