问题导读
1.通过什么途径,可以查看与spark兼容的组件版本?
2.如何获取pom文件?
3.pom文件中包含了哪些信息?
4.spark编译通过什么参数可以指定hadoop版本?
当我们安装spark的时候,很多时候都会遇到这个问题,如何找到对应spark的各个组件的版本,找到比较标准的版本兼容信息。答案在spark源码中的pom文件。首先我们从官网下载源码。进入官网
[Bash shell] 纯文本查看 复制代码
?
1
|
http:
//spark
.apache.org
|
选择download,然后我们看到下面内容
[Bash shell] 纯文本查看 复制代码
?
1
|