下载Spark并在单机模式下运行它

声明:
以下是在Windows 10 64位系统下面进行的操作。
使用的语言以及版本是Python 2.7。
JDK版本是 JDK1.8。

下载Spark

Spark的下载地址为:https://archive.apache.org/dist/spark/
在这个里面可以选择你自己想要的版本。
我下载的是spark-1.6.0-bin-hadoop2.6.tgz
注:在Spark1.4起增加了对R语言和Python3的支持!

解压Saprk

将压缩包解压,我解压的路径是F:\spark
注意:路径中不能含有空格

环境变量配置

新建 SPARK_HOME,设置值为解压目录,如:F:\spark\spark-1.6.0-bin-hadoop2.6
添加PATH:%SPARK_HOME%\bin

下载Hadoop

Hadoop下载地址为:http://mirror.bit.edu.cn/apache/hadoop/common/
我这里下载的是hadoop 2.6的。

Hadoop环境变量的配置

将Hadoop解压在spark的同一路径(可

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
M1spark是一种用于在单机运行Apache Spark模式。下面是M1spark单机模式安装的步骤: 1. 首先,确保你的机器上已经安装了Java Development Kit (JDK)。你可以通过在终端中运行`java -version`命令来检查是否已经安装了JDK。 2. 下载Spark安装包。你可以从Spark官方网站(https://spark.apache.org/downloads.html)下载最新版本的Spark。 3. 解压下载Spark安装包。你可以使用以下命令解压: ``` tar -xvf spark-<version>.tgz ``` 4. 进入解压后的Spark目录: ``` cd spark-<version> ``` 5. 在Spark目录中,复制一份默认的配置文件模板: ``` cp conf/spark-env.sh.template conf/spark-env.sh ``` 6. 编辑`conf/spark-env.sh`文件,设置以下环境变量: ``` export SPARK_MASTER_HOST=<your_host_ip> export SPARK_MASTER_PORT=<master_port> export SPARK_LOCAL_IP=<your_local_ip> ``` 其中,`<your_host_ip>`是你的主机IP地址,`<master_port>`是Spark Master节点的端口号,`<your_local_ip>`是你的本地IP地址。 7. 启动Spark Master节点。在Spark目录中,运行以下命令: ``` ./sbin/start-master.sh ``` 8. 访问Spark Master的Web界面。在浏览器中输入`http://<your_host_ip>:8080`,你将看到Spark Master的Web界面。 9. 启动Spark Worker节点。在Spark目录中,运行以下命令: ``` ./sbin/start-worker.sh spark://<your_host_ip>:<master_port> ``` 其中,`<your_host_ip>`是你的主机IP地址,`<master_port>`是Spark Master节点的端口号。 10. 现在,你已经成功安装并启动了M1spark单机模式。你可以使用Spark提供的API和工具来进行数据处理和分析。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值