Spark在分布式环境中的安装

本文详细介绍了如何在分布式环境中安装Spark 2.2.2,包括Scala的安装、Spark的安装以及高可用(HA)集群的设置。在每个步骤中,涉及到文件上传、解压、环境变量配置、配置文件修改以及启动和验证过程。对于HA集群,重点讲述了基于Zookeeper的配置和故障切换验证。
摘要由CSDN通过智能技术生成

Spark在分布式环境中的安装

使用的Spark的版本是2.2.2,最新的版本应该2.4.4。

下载地址:https://archive.apache.org/dist/spark/spark-2.2.2/

提供的安装包:

spark-2.2.2.tgz ---->源码包

spark-2.2.2-bin-hadoop2.7.tgz ---->安装包

链接:https://pan.baidu.com/s/12N_TEesrGxYrBVYeh469Kg 
提取码:igk6
链接:https://pan.baidu.com/s/1FH9nqP02ccvSsdqhiDNk5g 
提取码:djy2 
复制这段内容后打开百度网盘手机App,操作更方便哦

1.安装 scala

1.1上传

put e:/soft/scala-2.11.8.tgz 本地scala安装包路径

1.2解压

tar -zxvf scala-2.11.8.tgz -C /home/hadoop/apps/

1.3重命名

mv scala-2.11.8 scala

1.4添加环境变量

在当前用户的环境变量配置文件中添加环境变量

vi ~/.bash_profile

添加如下内容

export SCALA_HOME=/home/bigdata/app/scala
export PATH=$PATH:$SCALA_HOME/bin

1.5配置文件生效

source ~/.bash_profile

1.6验证

scala -version 

在这里插入图片描述

2.安装Spark

2.1上传

put c:/spark-2.2.2-bin-hadoop2.7 上传本地spark的安装包

2.2重命名

mv spark-2.2.2-bin-hadoop2.7
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值