今天我们继续我们的环境配置
参考:
http://dblab.xmu.edu.cn/blog/spark-quick-start-guide/
https://www.cnblogs.com/phpdragon/p/12594866.html
下载Spark包
关于版本选择问题可以看下面的几篇文章
版本对应关系:https://blog.csdn.net/xx1710/article/details/81198876
查看spark的版本对应关系:https://blog.csdn.net/andyguan01_2/article/details/86590952
(简单来说就是下载对应版本源码包,在
pom.xml
中可以查看)https://spark.apache.org/docs/2.4.6/hadoop-provided.html
我们这里采用spark 2.4.6,使用集成scala2.12版本的,用户提供hadoop的版本
可以根据个人需要改变
$ wget https://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.4.6/spark-2.4.6-bin-without-hadoop-scala-2.12.tgz
$ tar -zxvf spark-2.4.6-bin-without-hadoop-scala-2.12.tgz
$ sudo mv spark-2.4.6-bin-without-hadoop-scala-2.12 /usr/local/spark-2.4.6
$ sudo chown -R user:user /usr/local/spark-2.4.