安装spark3.0.0

在这之前已经在本地安装了hadoop和hive,参考大数据相关整理​​​​​​​

目录

1、下载

2、设置环境变量

3、修改配置

4 、启动

5、确认启动成功

6、执行spark-shell启动&启动遇到的一些问题


1、下载

#下载,地址失效就从官网下载 http://spark.apache.org/downloads.html
$ wget https://mirror.bit.edu.cn/apache/spark/spark-3.0.0/spark-3.0.0-bin-hadoop3.2.tgz

#解压,路径为/Users/zheng/spark/spark-3.0.0
$ tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz

#重命名
$ cp spark-3.0.0-bin-hadoop3.2.tgz spark-3.0.0

#修改权限,这里不修改权限,最后启动spark的时候会报一些文件找不到
$ chmod -R 755 /spark-3.0.0

2、设置环境变量

#设置环境变量
$ vim /etc/profile

#增加一下配置:
export SPARK_HOME=/Users/zheng/spark/spark-3.0.0
export PATH=$PATH:$SPARK_HOME/bin

#保存退出后生效
$ source /etc/profile

3、修改配置

#进入/spark-3.0.0/conf复制以下几个文件
$ mv spark-defaults.conf.template spark-defaults.conf
$ mv slaves.template slaves
$ mv spark-env.sh.template spark-env.sh


#修改spark-defaults.conf启用yarn模式
spark.master     yarn

4 、启动

#进入/spark-3.0.0/sbin,启动spark,start-all.sh表示启动所有
$ ./start-all.sh

5、确认启动成功

浏览器访问spark master默认地址:http://localhost:8080/


6、执行spark-shell启动&启动遇到的一些问题

启动的时候遇到了一些问题,详情参看启动spark-shell遇到的一些问题

  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值