安装Spark Shell教程
目录
准备工作
在安装 Spark Shell 之前,需要确保您的计算机符合以下要求:
- 操作系统:Linux 或 macOS
- Java 版本:Java 8 或更高版本
下载Spark
前往Spark 官网下载最新版本的 Spark。
在下载页面中找到“Pre-built for Apache Hadoop”这个标题下的链接,选择您所需的 Spark 版本和 Hadoop 版本进行下载。
注意:如果您的机器上没有安装 Hadoop,可以选择“Without Hadoop”这个选项。
安装Java
在安装 Spark Shell 之前,需要确保您的计算机已经安装了 Java 8 或更高版本。
在终端中输入以下命令检查 Java 是否已经安装:
$ java -version // 检查Java版本号
如果您的计算机上没有安装 Java,可以在Java 官网下载最新的 Java 版本。
配置环境变量
在终端中输入以下命令来打开您的 Bash 配置文件:
$ nano ~/.bashrc // 打开Bash配置文件
在文件末尾添加以下内容:
export SPARK_HOME=/path/to/your/spark/directory // 设置Spark安装目录 export PATH=$PATH:$SPARK_HOME/bin // 将Spark命令加入PATH环境变量
注意:将“/path/to/your/spark/directory”替换为您的 Spark 安装目录。
启动Spark Shell
在终端中输入以下命令启动 Spark Shell:
$ spark-shell // 启动Spark Shell
如果您的机器上没有安装 Hadoop,可以在启动 Spark Shell 时加上“--master local”选项,表示在本地模式下启动 Spark:
$ spark-shell --master local // 在本地模式下启动Spark Shell
注意:如果您的 Spark 安装目录不在 PATH 环境变量中,您需要使用以下命令启动 Spark Shell:
$ /path/to/your/spark/directory/bin/spark-shell // 启动Spark Shell
启动 Spark Shell 后,您将看到 Spark 的 Logo 以及 Spark Shell 的欢迎信息。接下来您就可以在 Spark Shell 中执行 Spark 代码了。