hadoop上的spark和Scala安装与配置

本文详细介绍了如何在Linux环境下下载并安装Scala和Spark,包括文件传输、解压、环境变量配置、Spark环境启动和验证的步骤,确保Hadoop和Spark的顺利部署。
摘要由CSDN通过智能技术生成

1、这个请看上一篇文章hadoop(先写这个,再看下文)

下载spark和Scala

步骤:

官网网址

scala网址

https://www.scala-lang.org/

spark网址

https://dlcdn.apache.org/spark/

可以先下载好Scala与Spark的包

Scala部署与安装

(1)打开xshell,连接虚拟机,找到xftp进行文件传输

然后进行文件的托拽到(/opt/software)目录下,也可以复制哦(可以两个包一起导入)

(2)进入  /opt/software/ 查看是否导入scala、spark包

cd /opt/software/

进去之后可以看到我们的安装包

然后用tar命令解压文件,解压到/usr/local/src/目录下

 tar -zxvf /opt/software/scala-2.12.12.tgz -C /usr/local/src/

(3)之后就进入/usr/local/src/目录

cd /usr/local/src

进行改名字

mv scala-2.12.12/ scala

(4)配置scala的环境变量

        vim进入 /etc/profile目录

vim /etc/profile

插入俩行配置文件(在最后面,键盘输入“a”,进行插入)

这要注意路径问题,如果自己的路径与我不一样就需要改成你放Scala的目录下,还有空格的书写

export SCALA_HOME=/usr/local/src/scala
export PATH=$PATH:${SCALA_HOME}/bin

然后用source重启环境文件

source /etc/profile

(6)Scala的查看

用version查看

scala -version

输入scala后,看出现一下就说明搭建成功

spark部署与安装

(1)

进入  /opt/software/ 查看是否导入scala、spark包(刚开始就导入包了,这里直接查看)

然后用tar命令解压文件,解压到/usr/local/src/目录下

ll

 tar -zxvf /opt/software/spark-3.4.3-bin-hadoop3\ \(1\).tgz -C /usr/local/src/ 

把文件名改为spark

 mv spark-3.4.3-bin-hadoop3/ spark

(2)配置spark的环境变量

用vim修改/etc/profile文件

vim /etc/profile

 输入环境变量

export SPARK_HOME=/usr/local/src/spark
export PATH=$PATH:${SPARK_HOME}/bin
export PATH=$PATH:${SPARK_HOME}/sbin

保存好后就(重启)source一下配置文件

source /etc/profile

(3)修改配置文件

     先备份文件cp spark-env.sh.template文件

进入到/conf目录下

cd /usr/local/src//spark/conf/

 备份

cp spark-env.sh.template spark-env.sh

进行配置spark配置文件

修改spark- env.sh文件,加以下内容:

vim spark-env.sh

 内容:

export SCALA_HOME=/usr/local/src/scala
export JAVA_HOME=/usr/local/src/jdk1.8.0_152
export SPARK_MASTER_IP=master
export SPARK_WOKER_CORES=2
export SPARK_WOKER_MEMORY=2g
export HADOOP_CONF_DIR=/usr/local/src/hadoop/etc/hadoop
#export SPARK_MASTER_WEBUI_PORT=8080
#export SPARK_MASTER_PORT=7070

 

(4)进入spark/sbin 启动spark ./start-all.sh

cd /usr/local/src/spark/sbin
./start-all.sh 

(5)查看spark

spark-submit --version

jps命令后,出现Worker与Master说明spark、scala安装成功了并启动了

 

(6)输入spark-shell命令测试

(7)网页访问,输入mastarIP地址+8080端口号

192.168.174.128:8080

  • 18
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
要在Mac上安装和配置Spark,可以按照以下步骤进行操作: 1. 首先,确保你的Mac上已经安装了Java Development Kit(JDK)。你可以通过在终端中运行以下命令来检查是否已安装JDK: ```shell java -version ``` 如果输出显示了Java版本信息,则表示JDK已安装。否则,你需要先安装JDK。 2. 访问Apache Spark官方网站(https://spark.apache.org/)并下载最新版本的Spark。 3. 将下载的Spark压缩包解压到任意目录。你可以将其解压到你的用户主目录下的一个子目录中,比如`~/spark`。 4. 打开终端,并使用以下命令进入到Spark目录: ```shell cd ~/spark ``` 5. 在终端中,将以下命令添加到你的`.bash_profile`或`.bashrc`文件中,以配置Spark的环境变量: ```shell export SPARK_HOME=~/spark export PATH=$PATH:$SPARK_HOME/bin ``` 6. 执行以下命令使环境变量生效: ```shell source ~/.bash_profile ``` 7. 接下来,你需要编辑Spark的配置文件。将`$SPARK_HOME/conf`目录下的`spark-env.sh.template`文件复制一份并重命名为`spark-env.sh`: ```shell cp $SPARK_HOME/conf/spark-env.sh.template $SPARK_HOME/conf/spark-env.sh ``` 8. 使用文本编辑器打开`spark-env.sh`文件,并添加以下内容: ```shell export JAVA_HOME=/path/to/your/jdk ``` 将`/path/to/your/jdk`替换为你的JDK安装路径,比如`/Library/Java/JavaVirtualMachines/jdk1.8.0_291.jdk/Contents/Home`。 9. 保存并关闭`spark-env.sh`文件。 10. 现在,你可以启动Spark了。在终端中执行以下命令: ```shell spark-shell ``` 如果一切正常,你将看到Spark的启动信息并进入Spark的交互式Shell。 希望这些步骤能够帮助你在Mac上成功安装和配置Spark!如果你遇到任何问题,请随时提问。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值