hadoop集群配置(spark和mongodb篇)
hadoop集群配置:
hadoop集群之spark配置:
将 spark-2.1.1-bin-hadoop2.7.tgz 压缩包导入hadoop集群中(我这里导入到了/opt/software目录下)
解压该压缩包:
为了后续方便,将解压后的文件命名为spark
4.添加环境变量:(在/etc/profile目录下)
5. 修改配置文件:(/spark/conf目录下)
拷贝一份 spark-env.sh.template 并重新命名为 spark-env.sh
在spark-e
原创
2020-11-06 09:28:43 ·
1085 阅读 ·
0 评论