Docker安装及Docker构建简易版Hadoop生态

一、首先在VM创建一个新的虚拟机将Docker安装好(Window系统可以安装 Docker Desktop Installer)

  1. 更新系统:首先打开终端,更新系统包列表。

    sudo apt-get update
    sudo apt-get upgrade
    

    下图是更新系统包截图

  2. 安装Docker:使用以下命令在Linux上安装Docker。

    sudo apt-get install -y docker.io 
    

  3. 启动Docker服务:使用以下命令启动Docker服务,我们通过ps命令可以看到docker服务的进程

    sudo systemctl start docker
    

  4. 使Docker开机自启:使用以下命令将Docker服务添加到系统服务中,使其在系统启动时自动启动。

    sudo systemctl enable docker
    

  5. 验证Docker是否安装成功:使用以下命令检查Docker是否成功安装。

    docker version
    

  6. 添加当前用户到Docker用户组:为了避免在执行Docker命令时使用sudo,可以将当前用户添加到Docker用户组中。

    sudo usermod -aG docker <username>
    

    其中“<username>”是您的用户名。

  7. 退出当前会话并重新登录:要使更改生效,退出当前会话并重新登录。

    ​
    # 要退出当前 Docker 会话并重新登录,可以使用以下命令:
    
    exit
    
    # 然后再使用以下命令重新登录:
    
    docker login
    
    # 这将提示您输入 Docker Hub 用户名和密码,以便重新登录。
    
    ​

现在您已经成功在Linux上安装了Docker容器。您可以使用docker run命令来启动新容器 

二、在Docker中安装Hive(非Docker Compose 方式)

  1. 确保已安装和启动Docker后,打开终端并输入以下命令以下载Hive镜像:

docker pull sequenceiq/hadoop-docker:2.7.1

下图是下载 hadoop容器截图

  1. 等待hadoop镜像下载完成后,输入以下命令以启动Hive容器:
docker run -it sequenceiq/hadoop-docker:2.7.1 /etc/bootstrap.sh -bash


## 以下是 释义
docker run -it sequenceiq/hadoop-docker:2.7.1 /etc/bootstrap.sh -bash 命令的意思是,在当前系统上启动一个新的 Docker 容器,使用指定的镜像 sequenceiq/hadoop-docker:2.7.1,然后运行 /etc/bootstrap.sh 脚本来配置 Hadoop,最后打开一个交互式的 Bash shell。

让我们详细解释一下这个命令的各个部分:

docker run:这是 Docker 命令来启动一个新的容器。
-it:这是两个选项。-i 表示交互式会话,-t 表示为终端提供伪终端。这两个选项结合起来意味着提供一个可以交互的终端。
sequenceiq/hadoop-docker:2.7.1:这是要使用的 Docker 镜像的名称和版本号。在这个例子中,我们使用的是名为 sequenceiq/hadoop-docker 的镜像,版本为 2.7.1。
/etc/bootstrap.sh -bash:这是在容器启动时要运行的命令。在这个例子中,我们首先运行 /etc/bootstrap.sh 脚本来配置 Hadoop,然后运行 -bash 进入交互式的 Bash shell。

 推出hadoop,以下方式启动hadoop

  1. 在安装docker的liunx,输入以下命令以安装Hive:
yum install -y hive

  1. 安装完成后,您可以使用以下命令启动Hive:
hive

  1. 接下来,您可以使用Hive进行数据分析和查询。

三、在Docker中安装Flink(非Docker Compose 方式)

使用Docker方式搭建单机Flink可以快速方便地进行本地测试和开发。下面是Docker方式搭建单机Flink的步骤:

  1. 获取Flink镜像

在命令行中执行以下指令,获取Flink官方镜像:

docker pull flink:1.13.0-scala_2.12

  1. 启动Flink容器

在命令行中执行以下指令,启动Flink容器:

docker run -it -p 8081:8081 flink:1.13.0-scala_2.12

该指令会以交互模式启动Flink容器,并将容器内部的8081端口映射到本地的8081端口。

  1. 验证Flink容器

在浏览器中输入 http://localhost:8081/,可以看到Flink的Web界面,证明Flink容器已经启动成功。

现在,您已经成功地使用Docker搭建了一个单机Flink环境,可以在其中进行本地测试和开发。

请注意,在这个过程中,您需要了解Docker的基本使用方法和Hadoop生态系统的基本知识。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
要在Docker安装Hadoop,可以按照以下步骤进行操作: 1. 首先,确保已经安装Docker。你可以在终端中运行以下命令来检查Docker是否已经安装: ``` docker --version ``` 如果没有安装,请先安装Docker并确保其正常运行。 2. 接下来,创建一个新的Docker容器来运行Hadoop。在终端中运行以下命令: ``` docker run -it --name hadoop-docker sequenceiq/hadoop-docker:2.7.1 /etc/bootstrap.sh -bash ``` 这将下载并启动一个基于Hadoop 2.7.1的Docker容器,并进入容器的shell。 3. 在容器中,可以使用以下命令来验证Hadoop是否正确安装: ``` hadoop version ``` 如果一切正常,你将看到Hadoop的版本信息。 4. 现在,你可以开始配置Hadoop集群。编辑Hadoop配置文件,如下: ``` nano $HADOOP_HOME/etc/hadoop/core-site.xml ``` 将以下内容添加到文件中: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 保存并关闭文件。 5. 接下来,编辑Hadoop的HDFS配置文件: ``` nano $HADOOP_HOME/etc/hadoop/hdfs-site.xml ``` 添加以下内容: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 保存并关闭文件。 6. 最后,格式化HDFS文件系统: ``` hdfs namenode -format ``` 7. 现在,你可以启动Hadoop集群: ``` start-all.sh ``` 这将启动Hadoop的各个组件。 恭喜!现在你已经成功在Docker安装和配置了Hadoop。你可以使用Hadoop命令行工具和Web界面来操作和管理集群。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

、小H

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值