centos7 spark虚拟机环境安装以及本地安装

小序:本篇文章首先是进行Spark的虚拟机安装,然后进行环境的搭建,接着进行Spark本地系统的变量配置。
所以下面高效的给大家分享Spark的安装步骤!!!

首先:选择自己Hadoop对应的Spark版本下载,不然会不兼容。(我下载的是spark312版本)

在这里插入图片描述

Spark下载链接

虚拟机安装

1、拖入:将.tgz安装包传到自己虚拟机安装包文件夹download
2、解压: tar -zxvf spark-3.1.2-bin-hadoop3.2.zip -C /opt/software/
3、改名:mv spark-3.1.2-bin-hadoop3.2 spark312
4、进入spark目录下:cd conf
5、改配置文件名:mv spark-env.sh.template spark-env.sh
6、vim spark-env.sh
7、增加代码:

#spark
export SPARK_MASTER_HOST = 你的虚拟机主机名
export SPARK_MASTER_PORT = 7077

8、进入:vim /etc/profile.d/myenv.sh
9、增加代码:

export HADOOP_CONF_DIR=/opt/software/hadoop313/etc/hadoop
export SPARK_HOME=/opt/software/spark312
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

10、激活全局环境变量:source /etc/profile

11、检查是否完成:
客户端访问:
spark-shell 【本地模式】
启动集群测试:
start-master.sh
start-worker.sh spark://你的用户名:7077

本地系统变量配置
HADOOP_HOME	      D:\software\hadoop313
HADOOP_USER_NAME  root
JAVA_HOME         C:\Program Files\Java\jdk1.8.0_231
JRE_HOME		  C:\Program Files\Java\jre1.8.0_231
SCALA_HOME		  C:\Program Files (x86)\scala
Path		      %JAVA_HOME%\bin;%JRE_HOME%\bin;%SCALA_HOME%\bin;%HADOOP_HOME%\bin;...
CLASSPATH		  %JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;%JAVA_HOME%\lib\rt.jar;%CATALINA_HOME%\lib\servlet-api.jar;
创建maven工程

在这里插入图片描述
在ideal里面选择这个创建,pom文件里面设置的scala版本为2.12.10
在这里插入图片描述

成功了!

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值