搭建Spark开发环境(第二弹)

22 篇文章 0 订阅
19 篇文章 0 订阅

                                      😊😊😊欢迎来到本博客😊😊😊

                                    本篇介绍的是Spark环境的准备🛠🛠🛠

                                    预更新📑:体验第一个Spark程序

    

在这里插入图片描述

目录

                                     一.环境准备

                                    二·.spark的部署方式

                                    三.spark集群安装部署

一.环境准备

配置环境:Hadoop、spark(本人是2.0.0)、JDK(1.8)、Linux(Centos6.7)

二·.spark的部署方式

spark部署模式分为Local模式集群模式,在local模式,常用于本地开发与测试,集群模式又分为standalone模式(集群单机模式)、Yarn模式、mesos模式

三.spark集群安装部署

1下载spark安装包.

下载spark安装包 在Apache spark官网下载网址:Downloads | Apache Spark (最新且稳定的版本是3.2.1,本人安装版本为2.0.0)

2.解压spark安装包

步骤1  先 alt+P,再拉spark-2.3.2-bin-hadoop2.7.tgz上传/opt/software目录下

回到master切换hadoop用户

$su Hadoop

$ cd /opt/software

$ls

$ tar -zxvf spark-2.3.2-bin-hadoop2.7.tgz -C /opt/module/

3.修改配置文件

步骤1 使用mv命令将spark-2.3.2-bin-hadoop2.7重名为spark

$cd /opt/module

$ mv spark-2.3.2-bin-hadoop2.7/ spark

步骤2 先进入/opt/module/spark/conf/目录,将spark-env.sh.template复制给spark-env.sh

$ cd /spark/conf

$ ls

$ cp spark-env.sh.template spark-env.sh

步骤3 修改spark-env.sh,配置内容:

$vi spark-env.sh

# Java环境变量

export JAVA_HOME=/opt/module/jdk1.8.0_144

# 指定master的 IP

export SPARK_MASTER_HOST=master

# 指定master的 端口

export SPARK_MASTER_PORT=7077

步骤4 复制slaves.template slaves 并重命名slaves

cp slaves.template slaves

步骤5 使用vi slaves命令编辑slaves配置文件,指定从节点IP

$vi slaves

Slave1

Slave2

4.分发文件

步骤1 将spark目录分发slave1和slave2

$scp -r /opt/module/spark/ slave1:/opt/module/

$ scp -r /opt/module/spark/ slave2:/opt/module/

5 启动spark集群

cd ..(回到spark目录)

步骤1  $ sbin/start-all.sh

步骤2   先使用ssh命令切到slave1、slave2,使用jps查看各节点进程,主节点有master,从节点有worker

步骤3  访问spark管理界面(master) http://192.168.196.101:8080,如图:

看到该状态

  • 16
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 32
    评论
在安装和配置Spark开发环境之前,需要先准备好以下环境: - Java环境(JDK8或以上版本) - Hadoop环境(可选,如果需要使用Hadoop分布式环境) - Scala环境(可选,如果需要使用Scala编写Spark应用程序) 接下来,我们来具体介绍如何安装和配置Spark开发环境。 ### 安装Spark 1. 下载Spark 首先,需要从官网下载Spark安装包。访问官网https://spark.apache.org/downloads.html,选择适合自己的版本进行下载。最新版本可以去下面的链接下载: ``` https://downloads.apache.org/spark/spark-3.2.0/spark-3.2.0-bin-hadoop3.2.tgz ``` 2. 解压Spark 下载完成后,将Spark解压到本地目录中。例如,将Spark解压到`/usr/local`目录下: ``` tar -xzvf spark-3.2.0-bin-hadoop3.2.tgz -C /usr/local ``` 3. 配置Spark环境变量 编辑`/etc/profile`文件,添加以下内容: ``` export SPARK_HOME=/usr/local/spark-3.2.0-bin-hadoop3.2 export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin ``` 使配置文件生效: ``` source /etc/profile ``` ### 配置Spark 1. 修改Spark配置文件 进入Spark安装目录,将`conf`目录下的`spark-env.sh.template`文件复制一份,并将其重命名为`spark-env.sh`: ``` cd /usr/local/spark-3.2.0-bin-hadoop3.2/conf cp spark-env.sh.template spark-env.sh ``` 编辑`spark-env.sh`文件,添加以下内容: ``` export SPARK_HOME=/usr/local/spark-3.2.0-bin-hadoop3.2 export JAVA_HOME=/usr/local/jdk1.8.0_271 export HADOOP_HOME=/usr/local/hadoop-3.2.2 export HADOOP_CONF_DIR=/usr/local/hadoop-3.2.2/etc/hadoop export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 其中,`JAVA_HOME`和`HADOOP_HOME`根据自己的实际情况进行修改。 2. 配置Spark参数 进入Spark安装目录,将`conf`目录下的`spark-defaults.conf.template`文件复制一份,并将其重命名为`spark-defaults.conf`: ``` cd /usr/local/spark-3.2.0-bin-hadoop3.2/conf cp spark-defaults.conf.template spark-defaults.conf ``` 编辑`spark-defaults.conf`文件,添加以下内容: ``` spark.driver.memory 4g spark.executor.memory 4g spark.executor.instances 5 spark.executor.cores 2 spark.default.parallelism 100 ``` 其中,各个参数的含义如下: - `spark.driver.memory`:Driver进程的内存大小,默认为1g。 - `spark.executor.memory`:Executor进程的内存大小,默认为1g。 - `spark.executor.instances`:Executor的实例数,默认为2。 - `spark.executor.cores`:Executor的CPU核心数,默认为1。 - `spark.default.parallelism`:RDD的默认分区数,即并行度,默认为当前集群的CPU核心数。 ### 启动Spark 启动Spark可以通过以下命令: ``` start-all.sh ``` 此命令将会启动Master和Worker进程。可以通过`jps`命令来查看是否启动成功。成功启动后,可以通过访问Master的Web UI(http://localhost:8080)来查看集群状态。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 32
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

发量不足

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值