前言
本篇文章将给各位展示如何快速地在linux上搭建spark,本文搭建的环境为Vmware 16 pro 下的CentOS 7 linux、hadoop版本为3.x以上,Jdk1.8,
以下是我总结出的spark几种模式的部署流程,如果是新手,请按流程走完,如果是有过搭建经验的,可根据所需点击相应链接。
传送门
一、Local模式部署
1、linux安装Anaconda
2、Spark Local 环境部署
二、StandAlone模式部署
1、Spark StandAlone环境部署
2、StandAlone程序测试
3、ZooKeeper安装部署
4、Spark StandAlone HA 环境部署