centos 上安装hadoop和spark 集群
要想在分布式上运行spark代码,就需要调用Hadoop的分布式文件系统。所以先安装hadoop软件。1、下载hadoop和jdk 我下载的是hadoop3.0.0; 下载地址为: http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.0.0/hadoop-3.0.0.tar.gz下载的jdk10.0.0: 下载地址...
原创
2018-07-10 11:12:31 ·
3549 阅读 ·
0 评论