spark搭建(一)

说明

先把环境直接展示出来,后面再详细记录里面的内容。

本次搭建的环境是真正的分布式环境,由于机器比较少,就直接用docker容器作为介质了。

所需环境

1、ubuntu任意版本都是可以的

2、安装docker

操作

1、集群的架构

2、软件下载地址

配置文件: https://download.csdn.net/download/yunlongl/10718544

软件下载: https://pan.baidu.com/s/12tjasGUmZvVK0l6Ekdg_7A

3、把上述所有软件以及配置文件解压到一个目录

结构如下

到了这里,基本就成功了,接下来就是构建镜像以及启动容器和使用spark了。

容器操作

构建镜像

1、切换到root用户,因为docker的操作是基于root权限的

sudo su

2、构建镜像,只需要运行build脚本就可以了。大约等待10分钟

sh build.sh

3、启动容器,进入config目录

运行

sh start_containers.sh

最终会成功启动5个docker容器

操作spark

1、进入hadoop-master

docker exec -it hadoop-maste /bin/sh

2、进入spark shell,就大功告成了。

pyspark --master spark://hadoop-maste:7077

也可尝试一下sparkContext

最后也可以在spark集群UI中看见这些。

在浏览器输入   虚拟机的

192.168.33.10:18888

 

 

 

 

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值