linux安装spark安装(详解版-单机/伪分布)

spark安装

前提条件

至少已经安装好Hadoop

优质:Hadoop+Hbase+Hive

hadoop单机/伪分布:
https://blog.csdn.net/qq_46138492/article/details/128582599

Hbase单机/伪分布:
https://blog.csdn.net/qq_46138492/article/details/128583816

Hive单机/伪分布:
https://blog.csdn.net/qq_46138492/article/details/128590816

1.前期准备

1.1 上传文件

  • 工具上传
  • 命令:scp -r spark-2.4.5-bin-hadoop2.7.tgz user@192.168.10.128:/home/user/src

1.2 解压,建目录,移动,改名,赋权

解压tar -zxvf spark-2.4.5-bin-hadoop2.7.tgz

建目录sudo mkdir /usr/local/spark

移动sudo mv spark-2.4.5-bin-hadoop2.7 /usr/local/spark/

改名

cd /usr/local/spark/
sudo mv spark-2.4.5-bin-hadoop2.7 spark-2.4.5

赋权sudo chown -R user:user spark-2.4.5

2、Spark环境安装配置

sudo vim /etc/profile

export SPARK_HOME=/usr/local/spark/spark-2.4.5
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH 
export MASTER=spark://192.168.10.128:7077

环境变量有效:source /etc/profile

3.集群设置

3.1 集群配置

vim ~/.profile

export SPARK_WORKER_INSTANCES=3
export CORES_PER_WORKER=1
export TOTAL_CORES=$((${CORES_PER_WORKER}*${SPARK_WORKER_INSTANCES}))
export PYTHONPATH=${SPARK_HOME}/python:${SPARK_HOME}/python/lib/py4j-0.10.7-src.zip
alias stop_all="stop-slave.sh;stop-master.sh"
alias start_all="start-master.sh;start-slave.sh -c $CORES_PER_WORKER -m 4G ${MASTER}"

#SPARK_WORKER_INSTANCES表示节点数目

source ~/.profile

3.2 使用start_all启动节点
start_all
3.3 查看jps
jps

在这里插入图片描述

4、验证是否成功

8080是sparkwebUI的端口号,可以通过spark的配置文件修改

http://192.168.10.128:8080/

在这里插入图片描述

完成啦!!!!

  • 3
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
安装 Apache SparkLinux 上通常涉及几个步骤,包括下载、解压、配置环境变量和添加到系统路径,以及可能的依赖项安装。这里是一个简化的概述: 1. **下载Spark**: 访问Apache Spark官网(https://spark.apache.org/downloads.html)下载适合你系统的本。推荐选择最新的稳定。 2. **下载Hadoop(可选)**:Spark通常需要Hadoop作为分布式文件系统,如果你没有现成的Hadoop集群,可以同时下载Hadoop并进行安装。 3. **解压安装包**:将下载的tar.gz或zip文件解压到你希望放置Spark目录的地方,例如 `/opt/spark`。 4. **配置环境变量**: - 在`.bashrc`或`.bash_profile`等配置文件中添加Spark的bin目录到PATH,如 `export PATH=$PATH:/opt/spark/bin` - 可能还需要设置`SPARK_HOME`环境变量指向Spark安装目录。 5. **启动服务**: - 如果你打算运行Spark Standalone模式,可以在`conf/spark-env.sh`或`conf/spark-defaults.conf`配置master和worker节点信息。 - 启动Spark Master:`./sbin/start-master.sh` - 启动Worker:`./sbin/start-slave.sh --master spark://<master-ip>:7077` 6. **验证安装**: - 使用`jps`命令检查是否有`SparkMaster`和`SparkWorker`进程运行。 - 打开WebUI查看Spark的状态,通常在`http://<master-ip>:8080`。 7. **安装Scala(可选)**: Spark使用Scala编写,如果你的系统中没有Scala,可以访问Scala官网(https://www.scala-lang.org/download/)下载并安装
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

杨小羊-

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值