引言
- 本文为个人本地部署pyspark遇到的问题以及解决办法,包含个人的一些理解,仅供参考。
- 设备: Mac M2
安装过程
安装HomeBrew
- Mac 上用来管理安装包的,可能早期的 Macos 自带但是起码我个人的 Mac 是需要安装的(以下安装方法个人为测试,之前这个包已经装过了)
- zsh 和 bash 应该是都可以的,仅供参考。
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install.sh)"
/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"
安装Java和 Scala
- spark是使用scala语言来完成编写的,而scala语言是依赖于java虚拟机来运行的,因此我们需要安装这两者
brew cask install java # 可能无效
brew install scala
brew 安装