之前在安装hbase时,被版本兼容问题坑了很长时间,所以在这次spark的安装时谨慎了些。
先去官网,查看不同版本关于JDK、Hadoop的兼容性,找不同版本spark的源码,如下图:
下载源码,解压缩,找到文件夹中pom.xml文件,查看里面的配置。
在 properties 里面可以查看到JDK、Hadoop的相关版本要求。
spark安装时的版本兼容问题
最新推荐文章于 2023-08-18 10:31:25 发布
之前在安装hbase时,被版本兼容问题坑了很长时间,所以在这次spark的安装时谨慎了些。
先去官网,查看不同版本关于JDK、Hadoop的兼容性,找不同版本spark的源码,如下图:
下载源码,解压缩,找到文件夹中pom.xml文件,查看里面的配置。
在 properties 里面可以查看到JDK、Hadoop的相关版本要求。