spark的安装以及单机模式的运行

(一)安装spark

安装Spark的过程就是下载和解压的过程。接下来的操作,我们把它上传到集群中的节点,并解压运行。

1.启动虚拟机

2.通过finalshell连接虚拟机,并上传安装文件到 /opt/software下

3.解压spark安装文件到/opt/module下
tar -zxvf spark-3.3.1-bin-hadoop3.tgz -C /opt/module/

4.重命名,把解压后的文件夹改成spark-local。因为后续我们还会使用其他的配置方式,所以这里先重命名一次。mv是linux的命令,

(二)配置环境变量

1.打开etc/profile.d/my_env.sh文件中,补充设置spark的环境变量。

# 省略其他...
# 添加spark 环境变量
export SPARK_HOME=/opt/module/spark-local
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

2.使用 source /etc/profile 命令让环境变量生效

(三)单机模式运行第一个Spark程序

这里使用单机模式快运行第一个Spark程序,让大家有个基本的印象。在安装Spark时,它就提供了一些示例程序,我们可以直接来调用。进入到spark-local,运行命令spark-submit命令。

spark-submit --class org.apache.spark.examples.SparkPi --master local[2] /opt/module/spark-local/examples/jars/spark-examples_2.12-3.1.1.jar 10

或者写成

$ cd /opt/module/spark-local
$ bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master local[2] \
./examples/jars/spark-examples_2.12-3.3.1.jar \
10

这里的 \ 是换行输入的意思,整体的代码就只有一句,只不过太长了,我们把它拆开成几个部分来输入,其中\ 的意思就是这里写不下,写在下一行。

结果展示

该算法是利用蒙特·卡罗算法求PI的值,具体运行效果如下。请注意,它并不会产生新的文件,而是直接在控制台输出结果。

(八)查看运行任务详情

在任务还处于运行状态时,可以通过hadoop100:4040来查看。请注意,一旦任务结束,则这个界面就不可访问了。

M1spark是一种用于在单机运行Apache Spark的模式。下面是M1spark单机模式安装的步骤: 1. 首先,确保你的机器上已经安装了Java Development Kit (JDK)。你可以通过在终端中运行`java -version`命令来检查是否已经安装了JDK。 2. 下载Spark安装包。你可以从Spark官方网站(https://spark.apache.org/downloads.html)下载最新版本的Spark。 3. 解压下载的Spark安装包。你可以使用以下命令解压: ``` tar -xvf spark-<version>.tgz ``` 4. 进入解压后的Spark目录: ``` cd spark-<version> ``` 5. 在Spark目录中,复制一份默认的配置文件模板: ``` cp conf/spark-env.sh.template conf/spark-env.sh ``` 6. 编辑`conf/spark-env.sh`文件,设置以下环境变量: ``` export SPARK_MASTER_HOST=<your_host_ip> export SPARK_MASTER_PORT=<master_port> export SPARK_LOCAL_IP=<your_local_ip> ``` 其中,`<your_host_ip>`是你的主机IP地址,`<master_port>`是Spark Master节点的端口号,`<your_local_ip>`是你的本地IP地址。 7. 启动Spark Master节点。在Spark目录中,运行以下命令: ``` ./sbin/start-master.sh ``` 8. 访问Spark Master的Web界面。在浏览器中输入`http://<your_host_ip>:8080`,你将看到Spark Master的Web界面。 9. 启动Spark Worker节点。在Spark目录中,运行以下命令: ``` ./sbin/start-worker.sh spark://<your_host_ip>:<master_port> ``` 其中,`<your_host_ip>`是你的主机IP地址,`<master_port>`是Spark Master节点的端口号。 10. 现在,你已经成功安装并启动了M1spark单机模式。你可以使用Spark提供的API和工具来进行数据处理和分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值