在mac下搭建pyspark需要安装的有:
1.JAVA JDK
2.Scala
3.apache-spark
4.Hadoop(可选)
5.pyspark
安装上面几个可以选择去官网下载安装包,解压后再自行配置环境变量。也可以选择使用brew进行安装,比较方便的一种安装方式。
如果你的电脑上没有安装brew的话,可以参考下面这篇文章进行安装brew,还是比较方便的。
https://www.jianshu.com/p/7ef9e0e4d3c2
只需要简单的使用
brew install scala
brew install apache-spark
brew install hadoop
安装完毕之后可以选择配置环境变量
使用vim ~/.bash_profile
进入环境变量配置文件以设置环境变量
具体如下:
# HomeBrew
export HOMEBREW_BOTTLE_DOMAIN=https://mirrors.tuna.tsinghua.edu.cn/home