搭建spark和scala,派大星都轻松学会了,超简单

首先你要拥有spark和scala的安装包

进入官网下载spark和Scala的安装包

spark

scala

准备好后,将安装包导入虚拟机使用xshell或拖拽,建议导到opt目录下

进行scala的安装与配置

进入虚拟机或使用xshell进行配置(派大星选择用xshell)

使用xshell就要设置一下虚拟机的网络配置,改为NAT模式和子网IP改为192.168.88.0

这是xshell连接成功的页面

解压安装包代码如下

tar -zxvf /opt/scala-2.12.12.tgz -C /opt/

接着就要配置环境变量了

用vim命令进入etc下的profile

vim /opt/profile

进入后在最后加入这三行代码

#SCALA

export SCALA_HOME=/opt/scala-2.12.12

export PATH=$PATH:${SCALA_HOME}/bin

编写好后退出,用source使代码生效,在用scala -version查看是否成功,出现安装的版本号即为成功

进行spark安装与部署

解压安装包代码如下

 tar -zxvf /opt/spark-3.1.1-bin-hadoop3.2.tgz -C /opt/

 

因为后缀太长,改一个简单的名字spark

cd /opt

mv spark -3.1.1 bin-hadoop3.2 spark

之后就与scala配置环境变量一样进入profile,在最后加入下面四行代码

#SPARK 
export SPARK_HOME=/opt/spark
export PATH=$PATH:${SPARK_HOME}/bin
export PATH=$PATH:${SPARK_HOME}/sbin

使代码生效,进入conf,备份文件

cp spark-env.sh template spark-env.sh

修改备份文件,在spark下的conf目录打开env,vim spark-env.sh

export SCALA_HOME=/opt/scala-2.12.12

export JAVA_HOME=/opt/module/java

export SPARK_MASTER_IP=master

export SPARK_WOKER_CORES=2

export SPARK_WOKER_MEMORY=2g

export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop

#export SPARK_MASTER_WEBUI_PORT=8080

#export SPARK_MASTER_PORT=7070

启动集群,spark下sbin目录下,./start-all.sh

最后输入spark-submit --version查看是否成功,如图下即为成功

  • 6
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值