大数据专业的同学有没有在初次学习Spark大数据分析的时候,老是搞不清楚Scala版本与Spark的哪个版本兼容,该分别使用哪一个版本呢?还有,假如你是用的是Maven管理依赖的话,是不是不知道该下载哪个Maven安装包呢?这些问题这篇文章帮你解答!!!
1、首先我们来看如何看Scala版本与Spark版本是否兼容
我们打开下面这个网址:
Maven Repository: Search/Browse/Explore
打开如下图所示,这个网址用于查所需要的依赖如何在IDEA中的pom.xml中写,我们也可用来查看Scala版本与Spark版本是否兼容,我们在如图的搜索框中输入spark并回车搜索
得到如下结果,我们点开Spark-core这个,就可以看到如何在pom.xml中写Spark-core的配置了,如果需要你也可以看到Spark SQL、Spark Streaming等都有,可以自行查看
进去后下滑会看到相关的Spark版本和Scala版本信息,我们以Spark3.4.1版本举例,它兼容的Scala版本