Docker入门之启动脚本

本文介绍了一种在Docker容器中启动Spark和Hadoop集群的方法。通过编写shell脚本并设置正确的环境变量,可以在容器启动时自动执行start-yarn.sh和start-all.sh脚本,实现集群的快速部署。
摘要由CSDN通过智能技术生成

假设已安装好一个spark镜像 ubuntu:spark

如何在启动容器时就启动 hadoop/ spark 等集群 ( 命令运行 start-yarn.sh,  start-all.sh)

只需要编写一个 shell 脚本

由于主机无法获取容器的环境,所以使用 docker run 或 docker exec 等方法在进入容器时执行命令 (start-yarn.sh...)会失败:NOT FOUND COMMAND,因此我采用了一个比较 low 的办法,在 run 或 exec 命令中将 hadoop 和 spark 的执行目录导入容器环境。

  1. 进入容器获取环境
    birenjianmodeMacBook-Pro:spark birenjianmo$ docker run -it ubuntu:spark
    root@99199dbfe94c:/# echo $PATH
    /root/soft/apache/spark/spark-2.2.0-bin-hadoop2.7/bin:/root/soft/apache/spark/spark-2.2.0-bin-hadoop2.7/sbin:/opt/temp/jdk1.8.0_211/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/root/soft/apache/zookeeper/zookeeper-3.4.9/bin:/root/soft/apache/hadoop/hadoop-2.7.7/bin:/root/soft/apache/hadoop/hadoop-2.7.7/sbin:/root/soft/scala/scala-2.11.11/bin:/root/soft/apache/hive/apache-hive-2.3.4-bin/bin
  2. 在主机编写 shell 脚本,启动容器时就导入环境执行 .sh 就不会报错
    PATH="/root/soft/apache/spark/spark-2.2.0-bin-hadoop2.7/bin:/root/soft/apache/spark/spark-2.2.0-bin-hadoop2.7/sbin:/opt/temp/jdk1.8.0_211/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/root/soft/apache/zookeeper/zookeeper-3.4.9/bin:/root/soft/apache/hadoop/hadoop-2.7.7/bin:/root/soft/apache/hadoop/hadoop-2.7.7/sbin:/root/soft/scala/scala-2.11.11/bin:/root/soft/apache/hive/apache-hive-2.3.4-bin/bin"
    
    docker run -itd -h master --name master -p 50070:50070 -p 50030:50030 -p 58088:8088 -p 58080:8080 ubuntu:spark /bin/bash -c "export PATH=$PATH:$PATH && /root/soft/shell/run_master.sh";

     

 

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值