使用docker配置安装hadoop和spark
分别安装hadoop和spark镜像
安装hadoop镜像
选择的docker镜像地址,这个镜像提供的hadoop版本比较新,且安装的是jdk8,可以支持安装最新版本的spark。
docker pull uhopper/hadoop:2.8.1
安装spark镜像
如果对spark版本要求不是很高,可以直接拉取别人的镜像,若要求新版本,则需要对dockerfile进行配置。
环境准备
-
下载sequenceiq/spark镜像构建源码
git clone https://github.com/sequenceiq/docker-spark
-
从Spark官网下载Spark 2.3.2安装包
-
将下载的文件需要放到docker-spark目录下
-
查看本地image,确保已经安装了hadoop
-
进入docker-spark目录,确认所有用于镜像构建的文件已经准备好
修改配置文件
-
修改Dockerfile为以下内容
-
FROM sequenceiq/hadoop-docker:2.7.0 MAINTAINER scottdyt #support for Hadoop 2.7.0 #RUN curl -s
-