在开发spark程序的时候,用scala语言进行开发需要考虑sparkspark 版本与scala版本的对应问题
版本对应关系如下:
Spark运行在Java 8 +,Python 2.7 + / 3.4 +和R 3.1+上。
对于Scala API,Spark 2.4.3使用Scala 2.12。您需要使用兼容的Scala版本(2.12.x)。
请注意
自Spark 2.2.0起,对2.6.5之前的Java 7,Python 2.6和旧Hadoop版本的支持已被删除。
自2.3.0起,对Scala 2.10的支持被删除。
自Spark 2.4.1起,对Scala 2.11的支持已被弃用,将在Spark 3.0中删除。
在spark的官网中有关于spark 和 scala 的版本对应的关系介绍