第一步:安装jdk
第二步:安装wget
输入命令:yum -y install wget
第三步:下载Apache Spark
网上去说官网,我呀的搞半天也没找到链接,卡不说,而且还选择不了版本
我直接找到对应现在路径去看有什么版本的进行下载
下载命令:
wget https://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-3.0.2/spark-3.0.2-bin-hadoop3.2.tgz
Centos7中现在也特别慢,无语 没办法 慢慢来吧
第四步:创建存储文件夹(你可以创建自己的文件夹)
输入命令:mkdir /home/seven/spark
第五步:解压的对应文件夹下(你可以解压到你自己的文件夹下)
输入命令:tar -zxvf spark-3.0.2-bin-hadoop3.2.tgz -C /usr/local/spark/
第六步:配置环境变量
- 进入根目录
输入命令:cd ~ - 修改bash_profile文件
输入命令:vi .bash_profile - 添加下列语句
export SPARK_HOME=/usr/local/spark/spark-3.0.2-bin-hadoop3.2
export PATH=$PATH:$SPARK_HOME/bin - 生效环境变量
输入命令:source .bash_profile
第七步:启动
输入命令:spark-shell