Docker 1.13版本新增功能说明

前言

Docker 1.13 在 2017 年 1 月 18 日发布了。从 2016 年 7 月 29 日发布 1.12 发布以来,已经过去 5 个多月了,对于活跃的 Docker 社区来说,已经很久了,让我们看看都 1.13 都新增了什么内容吧。

1.13 有一千四百多个 issue/pull request,五千多个 commits,是 Docker 历史上最高的发布版本。这并不是一个简单的小版本变化,里面有大量的更新。

在发布之后,可以直接安装最新版本。在一个新的 Ubuntu / CentOS 系统中直接执行:

Top 10 新增功能

  • 1、正式支持服务栈 docker stack
  • 2、正式支持插件:docker plugin
  • 3、添加在 Swarm 集群环境下对密码、密钥管理的 secret 管理服务:docker secret
  • 4、增加 docker system 命令
  • 5、可以直接使用 docker-compose.yml 进行服务部署
  • 6、添加 docker service 滚动升级出故障后回滚的功能
  • 7、增加强制再发布选项 docker service update --force
  • 8、允许 docker service create 映射宿主端口,而不是边界负载均衡网络端口
  • 9、允许 docker run 连入指定的 swarm mode 的 overlay 网络
  • 10、解决中国 GFW 墙掉 docker-engine apt/yum 源的问题

让我们来详细解读一下 1.13.0 新增功能 吧。

Docker 镜像构建

从已有镜像取得缓存

https://github.com/docker/docker/pull/26839

我们都知道使用 Dockerfile 构建镜像的时候,会充分利用分层存储的特性进行缓存,之前构建过的层,如果没有变化,那么会直接使用缓存的内容,避免没有意义的重复构建。不过使用缓存的前提条件是曾经在本地构建过这个镜像。这在 CI 进行集群构建时是一个比较麻烦的问题,因为构建任务可能会被分配到不同的机器上,而该机器没有构建过该镜像,因此缓存总是用不上,因此大量的时间浪费在了重复构建已经构建过的层上了。

在 1.13 中,为 docker build 增加了一个新的参数 --cache-from,利用镜像中的 History 来判断该层是否和之前的镜像一致,从而避免重复构建。

比如我们先下载获取作为缓存的镜像:

然后我们使用更新后的 Dockerfile 构建镜像时,如果加上 --cache-from mongo:3.2 后,会发现如果是已经在mongo:3.2 中存在并没有修改的层,就会用 mongo:3.2 中的该层做缓存。

压扁(squash)镜像(实验阶段)

https://github.com/docker/docker/pull/22641

对于总是把 Dockerfile 当做 bash 文件来用的人,会发现很快由于太多的 RUN 导致镜像有特别多的层,镜像超级臃肿,而且甚至会碰到超出最大层数限制的问题。这些人往往不从自身找问题,反而去寻找旁门左道,比如导出镜像做一些特殊处理,合并为一层,然后再导入等等,这种做法是很错误的,除了导致构建缓存失败外,还导致docker history 丢失,导致镜像变为黑箱镜像。其实正确的做法是遵循 Dockerfile 最佳实践,应该把多个命令合并为一个 RUN,每一个 RUN 要精心设计,确保安装构建最后进行清理。这样才可以降低镜像体积,以及最大化的利用构建缓存。

在 Docker 1.13 中,为了应对这群用户,实验性的提供了一个 --squash 参数给 docker build,其功能就是如上所说,将 Dockerfile 中所有的操作,压缩为一层。不过,与旁门左道不同,它保留了 docker history

比如如下的 Dockerfile

如果我们正常的构建的话,比如 docker build -t my-not-squash .,其 history 是这样子的:

而如果我们用 --squash 构建:

其 history 则是这样子:

我们可以注意到,所有层的层ID都 <missing> 了,并且多了一层 merge

要注意,这并不是解决懒惰的办法,撰写 Dockerfile 的时候,依旧需要遵循最佳实践,不要试图用这种办法去压缩镜像。

构建镜像时支持用 --network 指定网络

https://github.com/docker/docker/pull/27702 https://github.com/docker/docker/issues/10324

在一些网络环境中,我们可能需要定制 /etc/hosts 文件来提供特定的主机和 IP 地址映射关系,无论是应对 GFW,还是公司内部 Git 服务器,都有可能有这种需求,这个时候构建时修改 /etc/hosts 是一个比较麻烦的事情。使用内部 DNS 虽然是一种解决办法,但是这将是全引擎范围的,而且并非所有环境都会有内部 DNS。更好地做法是使用宿主网络进行构建。另外,有的时候,或许这个构建所需 Git 服务器位于容器内网络,我们需要指定某个 overlay 网络来给镜像构建所需。

在 1.13 中,为 docker build 提供了 --network 参数,可以指定构建时的网络。

比如,我们有一个 Dockerfile 内容为:

内容很简单,就是看看构建时的 /etc/hosts 的内容是什么。假设我们宿主的 /etc/hosts 中包含了一条 1.2.3.4 到example.com 的映射关系。

如果我们如同以往,使用默认网络进行构建。那么结果会是这样:

可以注意到,这次构建所看到的是容器默认网络的 /etc/hosts,其内没有宿主上添加的条目 1.2.3.4 example.com

然后我们使用 docker build --network=host 来使用宿主网络构建:

这次由于使用了 --network=host 参数,于是使用的是宿主的网络命名空间,因此 /etc/hosts 也是宿主的内容。我们可以在其中看到 1.2.3.4 example.com 条目。

开始允许 docker build 中定义 Dockerfile 未使用的参数(ARG)

https://github.com/docker/docker/pull/27412

我们都知道镜像构建时可以用 --build-arg 来定义参数,这样 Dockerfile 就会使用这个参数的值来进行构建。这对于 CI/CD 系统很重要,我们可以使用一套 Dockerfile 来构建不同条件下的镜像。

但在 1.13 以前,这里有个问题,在 CI 系统中,我们有时希望用一套构建命令、脚本,通过给入不同的 Dockerfile来构建不同的镜像,而 --build-arg 的目的是定义一些有可能会用到的全局变量,但是如果有的 Dockerfile 中没用这个变量,那么构建就会失败。#26249

其背后的思想是,如果 --build-arg 指定了,但是没用,那么很可能是因为拼写错误、或者忘记了应该使用这个变量而出现的问题。最初 docker build 对于这类情况的处理,是直接报错退出,构建失败。

但是在上面的 CI 的案例中,--build-arg 只是定义一些可能用到的环境变量,并不强制使用,这种情况下,如果因为Dockerfile没有使用可能用到的变量就报错就有些过了。因此在 1.13 中,将其降为警告,并不终止构建,只是提醒用户有些变量未使用。

安装

解决 GFW 影响 Docker 安装问题

https://github.com/docker/docker/pull/27005

官方的 apt/yum 源使用的是 AWS 的服务,并且为了确保安全使用了 HTTPS,因此伟大的墙很乐于干扰大家使用。没办法的情况下,各个云服务商纷纷建立自己官方源镜像,阿里云、DaoCloud、Azura 等等,并且自己做了个修订版的https://get.docker.com 的脚本来进行安装。

现在这个发生改变了,官方的 https://get.docker.com 将支持 --mirror 参数,你可以用这个参数指定国内镜像源,目前支持微软的 Azure 云,(或阿里云?(更新:由于阿里云镜像源不支持 HTTPS,所以不会支持阿里云))。使用方法如下,将原来官网安装命令:

替换为:

增加更多的系统支持

在这次发布中,增加了 Ubuntu 16.10 的安装包,而且对 Ubuntu 系统增加了 PPC64LE 和 s390x 构架的安装包。此外,还正式支持了 VMWare Photon OS 系统的 RPM 安装包,以及在 https://get.docker.com 的支持。并且支持了Fedora 25,甚至开始支持 arm64。同时也由于一些系统生命周期的结束,而被移除支持,比如Ubuntu 15.10Fedora 22都不在支持了。

网络

允许 docker run 连入指定的 swarm mode 的网络

https://github.com/docker/docker/pull/25962

在 Docker 1.12 发布新的 Swarm Mode 之后,很多人都问过这样的问题,怎么才能让 docker run 的容器连入 Swarm Mode 服务的 overlay 网络中去?答案是不可以,因为 swarm 的 overlay网络是为了 swarm mode service 准备的,相对更健壮,而直接使用 docker run,会破坏了这里面的安全模型。

但是由于大家需求很多,于是提供了一种折衷的办法。1.13 允许建立网络的时候,设定该网络为 attachable,允许之后的 docker run 的容器连接到该网络上。

我们创建一个默认的、不允许之后 attach 的网络:

然后再创建一个允许 attach 的网络,这里会使用 1.13 新加入的 --attachable 参数:

然后我们启动一个 web 服务,连入这两个网络:

现在我们用 docker run 启动一个容器连入第一个网络:

由于 mynet1 不允许手动 attach 所以这里报错了。

在 1.12 的情况下,会报告该网络无法给 docker run 使用:

不过,--attachable 实际上是将网络的安全模型打开了一个缺口,因此这不是默认设置,而且并不推荐使用。用户在使用这个选项建立网络的时候,一定要知道自己在做什么。

允许 docker service create 映射宿主端口,而不是边界负载均衡网络端口

https://github.com/docker/docker/pull/27917 https://github.com/docker/docker/pull/28943

docker service create 中的 --publish 格式有进一步的变化。(在 1.13 的 RC 期间,曾经去掉 --publish,改为--port,经过讨论后,决定保持一致性,继续使用 --publish,不使用新的 --port 选项。)

在 1.12 中,docker service create 允许使用参数 --publish 80:80 这类形式映射边界(ingress)网络的端口,这样的映射会享受边界负载均衡,以及 routing mesh。

从 1.13 开始,增加另一种映射模式,被称为 host 模式,也就是说,用这种模式映射的端口,只会映射于容器所运行的主机上。这就和一代 Swarm 中一样了。虽然失去了边界负载均衡,但是确定了映射点,在有的时候这种情况是需要的。

现在 --publish 的新的参数形式和 --mount 差不多。参数值为 , 逗号分隔的键值对,键值间以 = 等号分隔。目前支持 4 项内容:

  • protocol: 支持 tcp 或者 udp
  • mode: 支持 ingress 或者 host
  • target: 容器的端口号
  • published: 映射到宿主的端口号

比如,与 -p 8080:80 等效的 --publish 新格式选项为:

当然我们可以继续使用 -p 8080:80,但是新的选项格式增加了更多的可能。比如,使用 1.13 开始加入的 host 映射模式:

运行成功后,查看一下服务容器运行的节点:

我们可以看到,集群有3个节点,而服务就一个副本,跑到了 d3上。如果这是以前的使用边界负载均衡的网络 ingress的话,那么我们访问任意节点的 80 端口都会看到页面。

但是,host 模式不同,它只映射容器所在宿主的端口。因此,如果我们 curl d1 的话,应该什么看不到网页,而curl d3 的话就会看到页面:

iptables 的转发规则将默认拒绝

https://github.com/docker/docker/pull/28257

从默认 FORWARD 改为 DROP,从而避免容器外露的安全问题

在 docker network inspect 里显示连入的节点

我们都是知道,在 swarm mode 中创建的 overlay 网络,并不是一下子就在集群中的每个节点上 docker network ls就可以看到这个网络,这完全没有必要。只有当使用该网络的容器调度到某个节点上后,才会将该节点连入此 overlay网络。在网络排障过程中,经常会有这种需求,需要得知现在连入该 overlay 网络中的节点到底有哪些,这在 1.13之前不容易做到。

从 1.13 开始,docker network inspect 将显示连接到了这个网络的节点(宿主)有哪些。

从上面的例子可以看出,一共有两个宿主连入了这个 mynet 的 overlay 网络,分别为 138.197.213.116 和138.197.221.47

允许 service VIP 可以被 ping

https://github.com/docker/docker/pull/28019

在 1.12 的二代 Swarm 排障过程中,常见的一个问题就是跨节点的服务 VIP 不可以 ping,所以很多时候很多时候搞不懂是 overlay 网络不通呢?还是服务没起来?还是服务发现有问题?这个问题在 1.13 解决了,VIP 可以随便ping,跨宿主也没关系。

插件

插件功能正式启用

https://github.com/docker/docker/pull/28226

在 1.12 引入了插件概念后,作为试验特性得到了很多关注。包括 Docker Store 开始准备上线,以及第三方的插件的开发。现在 1.13 插件作为正式功能提供了。

相比于 1.12 的试验版本而言,最重要的是增加了 docker plugin create 命令,可以指定一个包含有 config.json 文件和 rootfs 目录的目录来创建插件。

命令行

checkpoint 功能(试验功能)

https://github.com/docker/docker/pull/22049

checkpoint 功能可以将运行中的容器状态冻结并保存为文件,并在将来可以从文件加载恢复此时的运行状态。

准备工作

目前它所依赖的是 criu 这个工具,因此在 Linux 上需要先安装这个工具。(目前尚无法在 Docker for Mac 中使用docker/for-mac#1059)

如果未安装 criu 则会出现如下报错:

对于 Ubuntu 系统,可以执行下面的命令安装 criu

由于这个是试验功能,因此需要在 docker.service 中 ExecStart= 这行后面添加 --experimental 选项。其它试验功能也需如此配置。

然后不要忘了 systemctl daemon-reload 和 systemctl restart docker

创建 Checkpoint 及恢复

执行 docker checkpoint create 就可以为容器创建 checkpoint

可以为一个容器创建多个 checkpoint,每个起不同的名字就是了。

然后可以用 docker checkpoint ls 来列出已经创建的 checkpoint

如果不加 --leave-running 参数的话,容器就会在创建完 checkpoint 就会被停止运行。

然后我们可以通过 docker start --checkpoint 来从某个 checkpoint 恢复运行:

容器就会从 checkpoint1 这个点恢复并继续运行。

备份时可以用 --checkpoint-dir 指定具体的保存 checkpoint 的目录:

然后我们可以在 backup 中看到实际保存的文件内容:

docker stats 终于可以显示容器名了

https://github.com/docker/docker/pull/27797 https://github.com/docker/docker/pull/24987

docker stats 可以显示容器的资源占用情况,用来分析不同容器的开销很有帮助。不过一直以来有个很讨厌的问题,docker stats 不显示容器名:

这让人根本没办法知道到底谁是谁。于是有各种变通的办法,比如:

但是这个列表是静态的,容器增加、删除都得重新运行这个命令。

从 1.13 开始,虽然依旧默认没有容器名,但是增加了 --format 参数可以自己设计输出格式:

给 docker ps 增加 is-task 过滤器

https://github.com/docker/docker/pull/24411

开始使用 Swarm Mode 后,经常碰到的一个问题就是,docker ps所看到的这些容器到底哪些是服务容器?哪些是docker run 跑起来的单独的容器?

从 1.13 开始,增加了 is-task 过滤器,以区分普通容器和 Swarm Mode 的服务容器:

再也不会出现客户端和服务端不同版本导致的错误了

https://github.com/docker/docker/pull/27745

在以前,docker 客户端和服务端必须版本一致,否则就会报 Client and server don't have the same version 这类错误。后来增加了 DOCKER_API_VERSION 环境变量,在客户端高于服务端版本时,可以通过这个环境变量指定服务端 API 版本,从而避免这类错误。

从 1.13 开始,将进行一些版本判断来进行处理,从而不会因为版本不一致而报错了。

docker inspect 将可以查看任何 docker 对象

https://github.com/docker/docker/pull/23614

我们应该很熟悉 docker inspect,我们经常用它查看镜像、容器。从 1.13 开始,这将变的更高级,可以查看任何 Docker 对象。从网络、task、service、volume到之前的镜像、容器等等。

比如,我们用 docker service ps 列出了服务对应的 task 列表,得到 task id 后,我们可以直接 docker inspect 这个 task id

运行时

不在分别构建试验可执行文件,直接使用 --experimental 参数

https://github.com/docker/docker/pull/27223

以前我们如果希望测试当前试验功能,必须添加试验分支源,重装 docker。这给测试试验分支带来了困难。现在变得简单了,不在分为两组可执行文件构建,合并为一个。如果需要测试试验功能,直接在 dockerd 后添加--experimental 即可。

在 overlay2 存储驱动使用于 xfs 时可以添加磁盘配额

https://github.com/docker/docker/pull/24771

在 1.13 之前,只有块设备文件系统驱动(如 devicemapperxfszfs等)支持磁盘配额能力,而所有 Union FS 的驱动,都不支持配额。现在针对使用 XFS 为后端的 overlay2 驱动支持了磁盘配额,理论上同样的方式可以在将来移植到 AUFS

增加 docker system 命令

https://github.com/docker/docker/pull/26108 https://github.com/docker/docker/pull/27525

很多人在以前搞不懂自己的镜像到底占了多少空间、容器占了多少空间,卷占了多少空间。怎么删除不用的东西以释放资源。从 1.13 开始,Docker 提供了一组 system 命令来帮助系统管理上的问题。

docker system df 是显示磁盘使用情况:

显示的列表中列出了镜像、容器、本地卷所占用的磁盘空间,以及可能回收的磁盘空间。比如,我们看到镜像有 123MB 的空间可以回收,从 1.13 开始,docker 提供了一组 prune 命令,分别是:

  • docker image prune:删除无用的镜像
  • docker container prune:删除无用的容器
  • docker volume prune:删除无用的卷
  • docker network prune:删除无用的网络
  • docker system prune:删除无用的镜像、容器、卷、网络

还记得之前删除这些资源所用的 docker rmi $(docker images -f dangling=true -aq) 这种命令么?现在可以简单地 docker image prune 即可删除。

此外,从上面已经可以看到,从 1.13 开始,命令都开始归类于各个子命令了。之前默认的docker infodocker psdocker rmdocker run都开始归类于对应的 docker imagedocker container,docker system 下了。目前之前的命令依旧可以使用,会继续保持一段时间。但是从 1.13 开始,推荐使用各个子命令的版本了。

提升 overlay2 的优先级

https://github.com/docker/docker/pull/27932

由于 overlay2 在 4.+ 内核的系统上趋于稳定,因此将其优先级提到 devicemapper 之上(优先级最高的依旧是aufs

docker exec -t 自动添加 TERM 环境变量

https://github.com/docker/docker/pull/26461

对于在容器中使用 vihtop 之类工具的人来说是比较方便的。之前由于默认没有定义 TERM,这些需要终端页面布局的程序执行可能会不正常。比如:

现在直接为 docker exec -t 选项添加了继承自当前的 TERM 变量,可以让这类工具可以正常使用。

Windows 内置的运行 Windows 程序的 Docker on Windows 的改进

  • #28415:支持 Dockerfile 中的 USER 了;
  • #25736:支持 syslog 日志系统;
  • #28189:支持 fluentd 日志系统;
  • #28182:终于支持 overlay 网络了;
  • #22208:支持自定义网络指定静态IP了;
  • #23391:支持存储层驱动的磁盘配额;
  • #25737:终于可以用 docker stats 了;
  • #25891:终于可以用 docker top 了;
  • #27838:Windows 终于可以用 Swarm Mode 跑集群了;

Swarm Mode

正式支持 docker stack

1.12 中引入了二代 Swarm,也就是 Swarm Mode。由于基础理念变化很大,因此先行实现比较基本的服务(service),但是针对应用/服务栈(stack)没有成熟,只是试行使用 .DAB 文件进行集群部署。但是 DAB 是 JSON 文件,而且撰写较为复杂。相对大家已经习惯的 docker-compose.yml 却无法在 docker stack 中直接使用。只可以用docker-compose bundle 命令将 docker-compose.yml 转换为 .dab 文件,然后才能拿到集群部署,而且很多功能用不了。

从 1.13 开始,将允许直接使用 docker-compose.yml 文件来进行部署(#27998),大大方便了习惯了docker compose 的用户。不过需要注意的是,由于理念的演化,原有的 docker-compose.yml v2 格式无法使用,必须使用 v3 格式。

幸运的是 v3 和 v2 格式差距不大。

  • 将一些过时的东西去掉,如 volumes_from,需要共享数据用命名卷;
  • 去除 volume_driver,这种服务全局的东西没有必要,直接针对每个卷使用 volume 键下的 driver 即可;
  • 将 cpu_sharescpu_quotacpusetmem_limitmemswap_limit 移到 deploy 下的 resources 下进行管控,毕竟这是部署资源控制的部分。

具体差异可以看官方文档:https://github.com/docker/docker.github.io/blob/vnext-compose/compose/compose-file.md#upgrading

我的 LNMP 的示例为例子,显然第一行的 version: '2' 需要换成 version: '3'

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值