使用docker安装Hadoop和Spark

本文详细介绍了如何使用Docker分别安装Hadoop和Spark镜像。首先选择合适的Hadoop镜像,然后下载sequenceiq/spark源码并配置环境,包括从Spark官网获取2.3.2版本的安装包。接着,修改Dockerfile和bootstrap.sh文件,并构建自定义Spark镜像。最后,启动Spark2.3.1容器,或者选择预装Hadoop的镜像进行快速安装。参考链接提供了更多操作细节。
摘要由CSDN通过智能技术生成

使用docker配置安装hadoop和spark

分别安装hadoop和spark镜像

安装hadoop镜像

选择的docker镜像地址,这个镜像提供的hadoop版本比较新,且安装的是jdk8,可以支持安装最新版本的spark。

docker pull uhopper/hadoop:2.8.1

安装spark镜像

如果对spark版本要求不是很高,可以直接拉取别人的镜像,若要求新版本,则需要对dockerfile进行配置。

环境准备

  1. 下载sequenceiq/spark镜像构建源码

    git clone https://github.com/sequenceiq/docker-spark
    
  2. 从Spark官网下载Spark 2.3.2安装包

  3. 将下载的文件需要放到docker-spark目录下

  4. 查看本地image,确保已经安装了hadoop

  5. 进入docker-spark目录,确认所有用于镜像构建的文件已经准备好

    • image-20181030125353071

修改配置文件

  • 修改Dockerfile为以下内容

    • FROM sequenceiq/hadoop-docker:2.7.0
      MAINTAINER scottdyt
      
      #support for Hadoop 2.7.0
      #RUN curl -s 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值