这里写目录标题
前言
Docker通过Group来控制容器的使用的资源配置,包括CPU,内存,磁三打方面,基本覆盖了常见的资源配置和使用量控制
一 Croup简介
Cgroup是Control Groups 的缩写,是Linux内核提供的一种可以限制,记录,隔离进程所使用的物理资源(如 cpu,内存,磁盘IO等等)机制,被LXC.docker 等很多项目用于实现进程资源控制。Cgroup本身是提供将进程进行分组化管理的功能和接口的基础结构,I/0或者内存的分配控制等具体的资源管理是通过该功能来实现的。
这些具体的资源管理功能称为Cgroup子系统,有以下几大子系统实现:
blkio:设置限制每个块设备的输入输出控制。例如:磁盘,usb等
CPU:使用调度程序为cgroup任务提供CPU的访问。
cpuacct:产生cgroup任务的CPU资源报告。
cpuset:如果是多核心的cpu,这个子系统会为cgroup任务分配单独的CPU和内存。
devices:允许或拒绝cgroup任务对设备的访问。
freezer:暂停和恢复cgroup任务。
memory:设置每个cgroup的内存限制以及产生内存资源报告。
net_cls:标记每个网络包以供cgroup方便使用。
ns:命名空间子系统。
perf_event:增加了对每个group的监测跟踪的能力,可以监测属于某个特定的group的所有线程以及运行在特定CPU上的线程。
二 使用stress工具测试CPU和内存
2.1查看两个容器的CPU使用率 。
●默认情况下,每个 Docker 容器的CPU的份额都是1024,单独一个容器的份额是没有意义的。只有在同时运行多个容器时,容器的 CPU 加权的效果才能体现出来。
●Cgroup 只在容器分配的资源紧缺时,即在需要对容器使用的资源进行限制时,才会生效。因此,无法单纯根据某个容器的 CPU 份额来确定有多少 CPU 资源分配给它,资源分配结果取决于同时运行的其他容器的 CPU 分配和容器中进程运行情况。可以通过 cpu share 可以设置容器使用 CPU 的优先级。
1,使用 Dockerfile 来创建一个基于 Centos 的 stress 工具镜像。
[root@localhost ~]# mkdir /opt/stress
[root@localhost ~]# cd /opt/stress
[root@localhost stress]# vim Dockerfile
FROM centos:7
MAINTAINER this is my images
RUN yum install -y wget
RUN wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
RUN yum install -y stress
[root@localhost stress]# docker build -t centos:stress .
[root@localhost stress]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
centos stress 124ec66b8814 5 seconds ago 417MB
centos 7 8652b9f0cb4c 2 weeks ago 204MB
2,启动两个容器及运行查看CPU使用百分比(1:2的比例)
[root@localhost stress]# docker run -tid --name cpu512 --cpu-shares 512 centos:stress stress -c 10
f6a90370fa731183f69c585b779c51c4fe65a04135d111615f2e6221915bd6a2
[root@localhost stress]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
f6a90370fa73 centos:stress "stress -c 10" 8 seconds ago Up 7 seconds cpu512
[root@localhost stress]# docker exec -it f6a90370fa73 bash
[root@f6a90370fa73 /]# top
top - 06:24:41 up 1:54, 0 users, load average: 18.46, 8.87, 3.55
Tasks: 13 total, 11 running, 2 sleeping, 0 stopped, 0 zombie
%Cpu(s):100.0 us, 0.0 sy, 0.0 ni, 0.0 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st
KiB Mem : 1867048 total, 167932 free, 1039256 used, 659860 buff/cache
KiB Swap: 2098172 total, 2096792 free, 1380 used. 630528 avail Mem
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
9 root 20 0 7312 100 0 R 7.0 0.0 0:30.83 stress
14 root 20 0 7312 100 0 R 7.0 0.0 0:31.56 stress
6 root 20 0 7312 100 0 R 6.6 0.0 0:31.09 stress
7 root 20 0 7312 100 0 R 6.6 0.0 0:31.18 stress
8 root 20 0 7312 100 0 R 6.6 0.0 0:31.57 stress
10 root 20 0 7312 100 0 R 6.6 0.0 0:31.62 stress
11 root 20 0 7312 100 0 R 6.6 0.0 0:31.69 stress
15 root 20 0 7312 100 0 R 6.6 0.0 0:31.39 stress
12 root 20 0 7312 100 0 R 6.3 0.0 0:31.87 stress
13 root 20 0 7312 100 0 R 6.3 0.0 0:31.01 stress
1 root 20 0 7312 632 532 S 0.0 0.0 0:00.02 stress
16 root 20 0 11804 1888 1488 S 0.0 0.1 0:00.02 bash
29 root 20 0 56168 1956 1440 R 0.0 0.1 0:00.04 top
[root@localhost stress]# docker run -tid --name cpu1024 --cpu-shares 1024 centos:stress stress -c 10
5461cda721676950ec2858ba8acdc2d06b18629757db2ba47de803e14085f2fa
[root@localhost stress]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
5461cda72167 centos:stress "stress -c 10" 6 seconds ago Up 4 seconds cpu1024
f6a90370fa73 centos:stress "stress -c 10" 2 minutes ago Up 2 minutes cpu512
[root@localhost stress]# docker exec -it 5461cda72167 bash
[root@5461cda72167 /]# top
top - 06:23:35 up 1:53, 0 users, load average: 15.25, 6.15, 2.36
Tasks: 13 total, 11 running, 2 sleeping, 0 stopped, 0 zombie
%Cpu(s):100.0 us, 0.0 sy, 0.0 ni, 0.0 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st
KiB Mem : 1867048 total, 168312 free, 1038908 used, 659828 buff/cache
KiB Swap: 2098172 total, 2096792 free, 1380 used. 630876 avail Mem
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
9 root 20 0 7312 96 0 R 14.6 0.0 0:06.37 stress
10 root 20 0 7312 96 0 R 14.6 0.0 0:06.41 stress
12 root 20 0 7312 96 0 R 14.6 0.0 0:06.51 stress
7 root 20 0 7312 96 0 R 13.3 0.0 0:06.04 stress
14 root 20 0 7312 96 0 R 13.3 0.0 0:06.03 stress
15 root 20 0 7312 96 0 R 13.3 0.0 0:06.14 stress
13 root 20 0 7312 96 0 R 13.0 0.0 0:06.33 stress
8 root 20 0 7312 96 0 R 12.6 0.0 0:06.14 stress
11 root 20 0 7312 96 0 R 12.6 0.0 0:05.94 stress
6 root 20 0 7312 96 0 R 12.3 0.0 0:06.26 stress
1 root 20 0 7312 628 532 S 0.0 0.0 0:00.01 stress
16 root 20 0 11828 1888 1488 S 0.0 0.1 0:00.01 bash
29 root 20 0 56168 1960 1440 R 0.0 0.1 0:00.00 top
2.2 CPU 周期限制
Docker提供了–cpu-period、–cpu-quota两个参数控制容器可以分配到的CPU时钟周期。
–cpu-period :是用来指定容器对 CPU 的使用要在多长时间内做一次重新分配。
–cpu-quota :是用来指定在这个周期内,最多可以有多少时间用来跑这个容器。
与 --cpu-shares 不同的是。这种配置是指定一个绝对值,容器对 CPU 资源的使用绝对不会超过配置的值。
cpu-period 和 cpu-quota 的单位是微秒;
cpu-period 的最小值是1000微秒,最大值为1秒,默认值为0.1秒。
cpu-quota 的值默认是 -1 ,表示不做控制;
cpu-period 和 cpu-quota 参数一般联合使用
[root@localhost stress]# docker run -itd --cpu-period 100000 --cpu-quota 200000 centos:stress
fbcd13507978fac0611eb951a9a85f222c88dbf5158079db99d17fd93bdab522
[root@localhost stress]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
fbcd13507978 centos:stress "/bin/bash" 14 seconds ago Up 13 seconds relaxed_engelbart
[root@localhost stress]# docker exec -it fbcd13507978 bash
[root@fbcd13507978 /]# cat /sys/fs/cgroup/cpu/cpu.cfs_period_us
100000
[root@fbcd13507978 /]# cat /sys/fs/cgroup/cpu/cpu.cfs_quota_us
200000
2.3 CPU Core 控制
对多核 CPU 的服务器,Docker 还可以控制容器运行使用哪些 CPU 内核,即使用–cpuset-cpus 参数。
这对具有多 CPU 的服务器尤其有用,可以对需要高性能计算的容器进行性能最优的配置。
[root@localhost ~]# docker run -itd --name cpu01 --cpuset-cpus 2-3 centos:stress
e6f4dd1f621e699e9abc1e34606c88353c9a4f46292c0275d30155895b265bba
[root@localhost ~]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
e6f4dd1f621e centos:stress "/bin/bash" 6 seconds ago Up 5 seconds cpu01
[root@localhost ~]# docker exec -it e6f4dd1f621e bash
[root@e6f4dd1f621e /]# cat /sys/fs/cgroup/cpuset/cpuset.cpus
2-3
[root@a1cc58a53e9e /]# stress -c 10 ###让容器产生10个子函数进程,并在后台运行
[root@a1cc58a53e9e /]# top ###使用top命令查看cpu工作情况(top进去后按1,显示每个cpu的工作情况)
只用了2,3内核
通过下面指令可以看到容器中进程与cpu内核的绑定关系
[root@localhost stress]# docker exec e6f4dd1f621e taskset -c -p 1
pid 1's current affinity list: 2,3
2.4 CPU 配额控制参数的混合使用
通过 cpuset-cpus 参数指定容器 A 使用 CPU 内核 0,容器 B 只是用 CPU 内核 1。
在主机上只有这两个容器使用对应 CPU 内核的情况,它们各自占用全部的内核资源,cpu-shares 没有明显效果。
cpuset-cpus、cpuset-mems 参数只在多核、多内存节点上的服务器上有效,并且必须与实际的物理配置匹配,否则也无法达到资源控制的目的。
在系统具有多个 CPU 内核的情况下,需要通过 cpuset-cpus 参数为设置容器 CPU 内核才能方便地进行测试。
1,创建容器cpu03,仅使用cpu1核心,加权值为512
[root@localhost stress]# docker run -tid --name cpu03 --cpuset-cpus 1 --cpu-shares 512 centos:stress stress -c 1
ae5f6982157f00bdbb6bed01c3649e7baea85713dccb6f82ec955b2b3e6b6728
[root@localhost stress]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
ae5f6982157f centos:stress "stress -c 1" 6 seconds ago Up 5 seconds cpu03
[root@localhost stress]# docker exec -it ae5f6982157f bash
[root@ae5f6982157f /]# top
2,创建容器cpu4,仅使用cpu1核心,加权值为1024
[root@localhost stress]# docker run -itd --name cpu04 --cpuset-cpus 1 --cpu-shares 1024 centos:stress stress -c 1
2b5c6f205a43c9cb51caa0166f79ff156247e1f30b49cf4e99f571c1c520a989
[root@localhost stress]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
2b5c6f205a43 centos:stress "stress -c 1" 4 seconds ago Up 3 seconds cpu04
[root@localhost stress]# docker exec -it 2b5c6f205a43 bash
[root@2b5c6f205a43 /]# top
三 内存限额
与操作系统类似,容器可使用的内存包括两部分:物理内存和 Swap。
Docker 通过下面两组参数来控制容器内存的使用量。
-m 或 --memory:设置内存的使用限额,例如 100M、1024M。
–memory-swap:设置 内存+swap 的使用限额。
1,执行如下命令允许该容器最多使用 400M 的内存和 600M 的 swap。
[root@localhost ~]# docker run -it -m 400M --memory-swap=600M progrium/stress --vm 1 --vm-bytes 280M
--vm 1:启动1个内存工作线程
--vm-bytes 280M:每个线程分配280M内存
如果让工作线程分配的内存超过 300M,分配的内存超过限额,stress 线程报错,容器 退出
[root@localhost stress]# docker run -it -m 400M --memory-swap=600M progrium/stress --vm 1 --vm-bytes 310
省略....
stress: dbug: [6] allocating 610 bytes ...^Cstress: FAIL: [1] (416) <-- worker 6 got signal 2
stress: WARN: [1] (418) now reaping child worker processes
stress: FAIL: [1] (422) kill error: No such process ##没有那么多的进程
stress: FAIL: [1] (452) failed run completed in 10s
四 Block IO 的限制
默认情况下,所有容器能平等地读写磁盘,可以通过设置–blkio-weight 参数来改变 容器 block IO 的优先级。
–blkio-weight 与 --cpu-shares 类似,设置的是相对权重值,默认为 500。
示例:在下面 的例子中,容器 A 读写磁盘的带宽是容器 B 的两倍
[root@localhost stress]# docker run -itd --name containA --blkio-weight 600 centos:stress
a0963ed6305aacbe23058abaca639d3edfa0a87511343073f6ba4457cc492caf
[root@localhost stress]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a0963ed6305a centos:stress "/bin/bash" About a minute ago Up About a minute containA
[root@localhost stress]# docker exec -it a0963ed6305a bash
[root@a0963ed6305a /]# cat /sys/fs/cgroup/blkio/blkio.weight
600
[root@localhost stress]# docker run -itd --name containB --blkio-weight 300 centos:stress
6d3de56c17e90b1e0ec37a9ee71bce3a63d84a10c7e3523183aefc5f37c5d9e5
[root@localhost stress]# docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
6d3de56c17e9 centos:stress "/bin/bash" 5 seconds ago Up 4 seconds containB
[root@6d3de56c17e9 /]# cat /sys/fs/cgroup/blkio/blkio.weight
300
五 bps 和 iops 的限制
bps 是 byte per second,每秒读写的数据量。
iops 是 io per second,每秒 IO 的次数。
可通过以下参数控制容器的 bps 和 iops:
–device-read-bps,限制读某个设备的 bps。
–device-write-bps,限制写某个设备的 bps。
–device-read-iops,限制读某个设备的 iops。
–device-write-iops,限制写某个设备的 iops。
下面的示例是限制容器写 /dev/sda 的速率为 10 MB/s。
[root@localhost stress]# docker run -it --device-write-bps /dev/sda:10M centos:stress
[root@ef52d606b3df /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct ##可以按ctrl+c中断查看
^C346+0 records in
346+0 records out
362807296 bytes (363 MB) copied, 34.5537 s, 10.5 MB/s
通过 dd 命令测试在容器中写磁盘的速度。因为容器的文件系统是在 host /dev/sda 上 的,
在容器中写文件相当于对 host /dev/sda 进行写操作。另外,oflag=direct 指定用 direct IO 方式写文件,
这样 --device-write-bps 才能生效。
结果表明限速 10MB/s 左右。作为对比测试,如果不限速,结果如下。
[root@b10674127ebc /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied, 1.01694 s, 1.1 GB/s