基于docker-compose安装spark 1+3及Spark On Yarn模式集群

本文介绍了如何使用docker-compose搭建Spark 1+3节点的集群,并提及了Spark On Yarn模式。内容中提到了可以参考的hadoop 1+3模式集群安装方法,但存在远程调用问题,可能影响到读取包的操作。需要注意在hosts文件中添加域名解析。
摘要由CSDN通过智能技术生成

基于docker-compose安装spark 1+3及Spark On Yarn模式集群

此处的样例是参考别人的,之后自己整合一套可以使用的1+3模式的集群。spark镜像可以自行在docker hub选择自己想要的进行替换即可。

备注:此处未开启日志功能,在 WEB 界面上面找不到 log的,如需开启,可自行添加参数或自己进入容器手动修改。

可参考链接: 基于docker-compose安装hadoop 1+3模式集群.

1、docker-compose.yml

version: "2.2"
services:
  master:
    image: gettyimages/spark:1.6.0-hadoop-2.6
    container_name: master
    hostname: master
    command: bin/spark-class org.apache.spark.deploy.master.Master -h master
    network_mode: 'host'
    restart: always
    environment:
      MASTER: spark://master:7077
      SPARK_CONF_DIR: /conf
      # 此处设置了 WEB UI界面的端口,因为这个端口用的比较多,上面的Hadoop那边好像用到了,可改回8080
      SPARK_MASTER_WEBUI_PORT: 8090
    volumes:
      - ./conf/master:/conf
      - ./data:/tmp/data
 
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值