spark的安装
#spark的安装
##在habdoop安装完成的前提下
##将下载好的spark,复制到/usr/tmp,并到此目录底下
##解压到/usr/local
进入解压目录(/usr/local)
修改spark的名字
使Hadoop是当前登录系统的用户名
进入解压的spark目录
并将目录下的con/spark-env.sh.template复制到con,并改名为spark-env.sh
这里显示权限不够
使用sudonautilus手动复制文件并改名
改名后在spark-env.sh在第一行
原创
2020-10-27 19:42:24 ·
99 阅读 ·
0 评论