本地模式安装Spark

安装Linux

  1. 打开 Microsoft Store,搜索Ubuntu,点击安装,等待安装完成;
  2. 菜单栏点击Ubuntu图标,打开命令行窗口之后会提示设置用户名和密码,用户名设为hadoop,密码随意;
  3. 至此,Windows环境下安装Linux完成!

安装Java环境

因为Spark程序经编译后运行在Java虚拟机上,所以必须安装Java(一般是JDK):

  1. 指定JDK安装目录
cd /usr/lib
mkdir jvm
  1. 获取JDK安装包,这里选择从JDK国内华为镜像下载
# 下列操作均在usr/lib/jvm目录下
# 下载
sudo wget https://repo.huaweicloud.com/java/jdk/13+33/jdk-13_linux-x64_bin.tar.gz
# 解压缩
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
M1spark是一种用于在单机上运行Apache Spark模式。下面是M1spark单机模式安装的步骤: 1. 首先,确保你的机器上已经安装了Java Development Kit (JDK)。你可以通过在终端中运行`java -version`命令来检查是否已经安装了JDK。 2. 下载Spark安装包。你可以从Spark官方网站(https://spark.apache.org/downloads.html)下载最新版本的Spark。 3. 解压下载的Spark安装包。你可以使用以下命令解压: ``` tar -xvf spark-<version>.tgz ``` 4. 进入解压后的Spark目录: ``` cd spark-<version> ``` 5. 在Spark目录中,复制一份默认的配置文件模板: ``` cp conf/spark-env.sh.template conf/spark-env.sh ``` 6. 编辑`conf/spark-env.sh`文件,设置以下环境变量: ``` export SPARK_MASTER_HOST=<your_host_ip> export SPARK_MASTER_PORT=<master_port> export SPARK_LOCAL_IP=<your_local_ip> ``` 其中,`<your_host_ip>`是你的主机IP地址,`<master_port>`是Spark Master节点的端口号,`<your_local_ip>`是你的本地IP地址。 7. 启动Spark Master节点。在Spark目录中,运行以下命令: ``` ./sbin/start-master.sh ``` 8. 访问Spark Master的Web界面。在浏览器中输入`http://<your_host_ip>:8080`,你将看到Spark Master的Web界面。 9. 启动Spark Worker节点。在Spark目录中,运行以下命令: ``` ./sbin/start-worker.sh spark://<your_host_ip>:<master_port> ``` 其中,`<your_host_ip>`是你的主机IP地址,`<master_port>`是Spark Master节点的端口号。 10. 现在,你已经成功安装并启动了M1spark单机模式。你可以使用Spark提供的API和工具来进行数据处理和分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值