搭建顺序:
JDK --> scala --> Hadoop --> 单机版spark --> Maven --> Scala IDE for Eclipse
要记得配置环境变量!
我这里安装的是jdk11,所以scala推荐装2.13.5、2.12.13、2.11.12,考虑到与spark的兼容问题,这里安装2.11.12版本
注意:
1、 spark 3.0+ 基于 Scala2.12
2、 目前企业中使用较多的Spark版本还是Spark2.x,如Spark2.2.0、Spark2.4.5都使用较多
目前就这么多了,以后再补充。。。