Cgroup资源配置

 

目录

一.Cgroup简介

二.Cgroup特点

三.Cgroup子系统介绍

四.CGroup 支持的文件种类

五.使用 stress 工具测试 CPU 和内存

六.CPU 周期限制

七.CPU Core 控制

八.内存限额

九.Block IO 的限制

十.bps 和 iops 的限制


一.Cgroup简介

Cgroup 是 Control Groups 的缩写,是Linux 内核提供的一种可以限制、记录、隔离进程组所使用的物理资源(如 CPU、内存、磁盘 IO 等等)的机制,
被 LXC、docker 等很多项目用于实现进程资源控制。

二.Cgroup特点

在 cgroups 中,任务就是系统的一个进程。

  • 控制族群(control group)。控制族群就是一组按照某种标准划分的进程。Cgroups 中的资源控制都是以控制族群为单位实现。一个进程可以加入到某个控制族群,也从一个进程组迁移到另一个控制族群。一个进程组的进程可以使用 cgroups 以控制族群为单位分配的资源,同时受到 cgroups 以控制族群为单位设定的限制。
  • 层级(hierarchy)。控制族群可以组织成 hierarchical 的形式,既一颗控制族群树。控制族群树上的子节点控制族群是父节点控制族群的孩子,继承父控制族群的特定的属性。
  • 子系统(subsytem)。一个子系统就是一个资源控制器,比如 cpu 子系统就是控制 cpu 时间分配的一个控制器。子系统必须附加(attach)到一个层级上才能起作用,一个子系统附加到某个层级以后,这个层级上的所有控制族群都受到这个子系统的控制。

三.Cgroup子系统介绍

Cgroup 本身是提供将进程进行分组化管理的功能和接口的基础结构,I/O 或内存的分配控制等具体的资源管理是通过该功能来实现的。
这些具体的资源 管理功能称为 Cgroup 子系统,有以下几大子系统实现:

  • blkio:设置限制每个块设备的输入输出控制。例如:磁盘,光盘以及 usb 等等。
  • CPU:使用调度程序为 cgroup 任务提供 CPU 的访问。
  • cpuacct:产生 cgroup 任务的 CPU 资源报告。
  • cpuset:如果是多核心的 CPU,这个子系统会为 cgroup 任务分配单独的 CPU 和 内存。
  • devices:允许或拒绝 cgroup 任务对设备的访问。
  • freezer:暂停和恢复 cgroup 任务。
  • memory:设置每个 cgroup 的内存限制以及产生内存资源报告。
  • net_cls:标记每个网络包以供 cgroup 方便使用。
  • ns:命名空间子系统。
  • perf_event:增加了对每个 group 的监测跟踪的能力,可以监测属于某个特定的 group 的所有线程以及运行在特定CPU上的线程。

四.CGroup 支持的文件种类

文件名R/W用途

Release_agent

RW

删除分组时执行的命令,这个文件只存在于根分组

Notify_on_release

RW

设置是否执行 release_agent。为 1 时执行

Tasks

RW

属于分组的线程 TID 列表

Cgroup.procs

R

属于分组的进程 PID 列表。仅包括多线程进程的线程 leader 的 TID,这点与 tasks 不同

Cgroup.event_control

RW

监视状态变化和分组删除事件的配置文件

五.使用 stress 工具测试 CPU 和内存

使用 Dockerfile 来创建一个基于 Centos 的 stress 工具镜像。

[root@localhost ~]# mkdir /opt/stress
[root@localhost ~]# cd /opt/stress/
[root@localhost stress]# vim Dockerfile 

[root@localhost stress]# vim Dockerfile

FROM centos:7
MAINTAINER moon
RUN yum -y install wget
RUN wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
RUN yum -y install stress

[root@localhost stress]# docker build -t centos:stress . ##构建镜像

使用如下命令创建容器,命令中的--cpu-shares 参数值不能保证可以获得 1 个 vcpu 或 者多少 GHz 的 CPU 资源,它仅是一个弹性的加权值。

通过 cpu share 可以设置容器使用 CPU 的优先级,启动了两个容器及运行查看 CPU 使用百分比。

[root@localhost stress]# docker run -itd --name cpu512 --cpu-shares 512 centos:stress stress -c 10 ##容器产生10个子函数进程

再开启另一个容器
[root@localhost stress]# docker run -itd --name cpu1024 --cpu-shares 1024 centos:stress stress -c 10

进入容器cpu1024查看cpu占有率

[root@localhost stress]# docker exec -it 6b6369c943f8 bash
[root@6b6369c943f8 /]# top
top - 06:23:02 up  3:59,  0 users,  load average: 17.92, 8.00, 3.12
Tasks:  13 total,  11 running,   2 sleeping,   0 stopped,   0 zombie
%Cpu0  : 99.7 us,  0.3 sy,  0.0 ni,  0.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu1  :100.0 us,  0.0 sy,  0.0 ni,  0.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem :  1867048 total,   127572 free,   809372 used,   930104 buff/cache
KiB Swap:  2098172 total,  1768868 free,   329304 used.   880356 avail Mem 

   PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND       
     8 root      20   0    7312     96      0 R  14.0  0.0   0:13.52 stress        
     9 root      20   0    7312     96      0 R  14.0  0.0   0:13.60 stress        
    10 root      20   0    7312     96      0 R  14.0  0.0   0:13.46 stress        
    14 root      20   0    7312     96      0 R  14.0  0.0   0:13.52 stress        
     7 root      20   0    7312     96      0 R  13.6  0.0   0:13.65 stress        
    11 root      20   0    7312     96      0 R  13.6  0.0   0:13.57 stress        
     6 root      20   0    7312     96      0 R  13.0  0.0   0:13.50 stress        
    12 root      20   0    7312     96      0 R  13.0  0.0   0:13.68 stress        
    15 root      20   0    7312     96      0 R  13.0  0.0   0:13.75 stress        
    13 root      20   0    7312     96      0 R  12.6  0.0   0:13.89 stress        
     1 root      20   0    7312    628    532 S   0.0  0.0   0:00.02 stress        
    16 root      20   0   11804   1884   1488 S   0.0  0.1   0:00.01 bash          
    29 root      20   0   56176   1964   1440 R   0.0  0.1   0:00.00 top 

进入容器cpu512查看cpu占有率

root@localhost ~]# docker exec -it 2ae2676ddb27 bash
[root@2ae2676ddb27 /]# top
top - 06:25:22 up  4:01,  0 users,  load average: 19.90, 12.52, 5.50
Tasks:  13 total,  11 running,   2 sleeping,   0 stopped,   0 zombie
%Cpu(s): 99.8 us,  0.2 sy,  0.0 ni,  0.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem :  1867048 total,   103852 free,   833056 used,   930140 buff/cache
KiB Swap:  2098172 total,  1768868 free,   329304 used.   856652 avail Mem 

   PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND       
     6 root      20   0    7312    100      0 R   7.6  0.0   0:38.89 stress        
     9 root      20   0    7312    100      0 R   7.3  0.0   0:38.91 stress        
     8 root      20   0    7312    100      0 R   7.0  0.0   0:38.33 stress        
    12 root      20   0    7312    100      0 R   7.0  0.0   0:38.59 stress        
    13 root      20   0    7312    100      0 R   7.0  0.0   0:38.12 stress        
    15 root      20   0    7312    100      0 R   7.0  0.0   0:39.06 stress        
    10 root      20   0    7312    100      0 R   6.3  0.0   0:38.36 stress        
     7 root      20   0    7312    100      0 R   6.0  0.0   0:38.56 stress        
    11 root      20   0    7312    100      0 R   6.0  0.0   0:38.47 stress        
    14 root      20   0    7312    100      0 R   6.0  0.0   0:38.96 stress        
     1 root      20   0    7312    632    532 S   0.0  0.0   0:00.04 stress        
    16 root      20   0   11804   1892   1488 S   0.0  0.1   0:00.01 bash          
    29 root      20   0   56176   1968   1440 R   0.0  0.1   0:00.00 top 

总结说明:查看结果为两个容器的%CPU,比例是1:2;默认情况下,每个 Docker容器的CPU份额都是1024。单独一个容器的份额是没有意义的。只有在同时运行多个容器时,容器的 CPU 加权的效果才能体现出来。
例如,两个容 器 A、B 的 CPU 份额分别为 1000 和 500,在CPU进行时间片分配的时候,容器A比容器B多一倍的机会获得 CPU 的时间片。
但分配的结果取决于当时主机和其他容器的运行状态, 实际上也无法保证容器 A一定能获得CPU时间片。比如容器A的进程一直是空闲的,
那么容器B是可以获取比容器A更多的CPU时间片的。极端情况下,例如主机上只运行了一个容器,即使它的 CPU 份额只有 50,它也可以独占整个主机的CPU资源

六.CPU 周期限制

Docker 提供了--cpu-period、--cpu-quota 两个参数控制容器可以分配到的 CPU 时钟周期。

  • --cpu-period 是用来指定容器对 CPU 的使用要在多长时间内做一次重新分配。
  • --cpu-quota 是用来指定在这个周期内,最多可以有多少时间用来跑这个容器。
  • 与 --cpu-shares 不同的是,这种配置是指定一个绝对值,容器对 CPU 资源的使用绝对不会超过配置的值。
  • cpu-period 和 cpu-quota 的单位为微秒(μs)。cpu-period 的最小值为 1000 微秒, 最大值为 1 秒(10^6 μs),默认值为 0.1 秒(100000 μs)。
  • cpu-quota 的值默认为 -1, 表示不做控制。cpu-period 和 cpu-quota 参数一般联合使用。

eg:容器进程需要每 1 秒使用单个 CPU 的 0.2 秒时间,可以将 cpu-period 设置 为 1000000(即 1 秒),cpu-quota 设置为 200000(0.2 秒)。
当然,在多核情况下,如果允许容器进程完全占用两个 CPU,则可以将 cpu-period 设置为 100000(即 0.1 秒), cpu-quota 设置为 200000(0.2 秒)。
 

[root@localhost stress]# docker run -itd --cpu-period 100000 --cpu-quota 200000 centos:stress 

[root@localhost stress]# docker exec -it 741a2eef5414 bash ##进入容器
[root@741a2eef5414 /]# cat /sys/fs/cgroup/cpu/cpu.cfs_period_us ##查看period限制
100000  
[root@741a2eef5414 /]# cat /sys/fs/cgroup/cpu/cpu.cfs_quota_us  ##查看quota限制
200000  

七.CPU Core 控制

对多核 CPU 的服务器,Docker 还可以控制容器运行使用哪些 CPU 内核,即使用--cpuset-cpus 参数。这对具有多 CPU 的服务器尤其有用,可以对需要高性能计算的容器进行性能最优的配置。

[root@localhost stress]# docker run -itd --name cpu1 --cpuset-cpus 0-1 centos:stress

注:执行以上命令需要宿主机为双核,表示创建的容器只能用 0、1两个内核。

最终生成 的 cgroup 的 CPU 内核配置如下:

[root@5e1b907927eb /]# cat /sys/fs/cgroup/cpuset/cpuset.cpus
0-1

容器进程绑定 CPU 内核

[root@localhost stress]# docker exec -it 5e1b907927eb taskset -c -p 1
pid 1's current affinity list: 0,1

CPU 配额控制参数的混合使用

通过 cpuset-cpus 参数指定容器 A 使用 CPU 内核 0,容器 B 只是用 CPU 内核 1。
在主机上只有这两个容器使用对应 CPU 内核的情况,它们各自占用全部的内核资源,cpu-shares 没有明显效果。
cpuset-cpus、cpuset-mems 参数只在多核、多内存节点上的服务器上有效,并且必须与实际的物理配置匹配,否则也无法达到资源控制的目的。
在系统具有多个 CPU 内核的情况下,需要通过 cpuset-cpus 参数为设置容器 CPU 内核才能方便地进行测试。

[root@localhost ~]# docker run -tid --name cpu3 --cpuset-cpus 1 --cpu-shares 512 centos:stress stress -c 1

[root@localhost ~]# docker run -tid --name cpu4 --cpuset-cpus 3 --cpu-shares 1024 centos:stress stress -c 1

按1查看每个核心的占用


[root@localhost ~]# docker exec -it 0e01a2c756ce bash
[root@0e01a2c756ce /]# top
top - 08:23:29 up 9 min,  0 users,  load average: 1.69, 0.84, 0.36
Tasks:   4 total,   2 running,   2 sleeping,   0 stopped,   0 zombie
%Cpu0  :  0.0 us,  0.0 sy,  0.0 ni, 99.3 id,  0.0 wa,  0.0 hi,  0.7 si,  0.0 st
%Cpu1  :100.0 us,  0.0 sy,  0.0 ni,  0.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu2  :  0.0 us,  0.0 sy,  0.0 ni, 99.7 id,  0.3 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu3  :100.0 us,  0.0 sy,  0.0 ni,  0.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu4  :  0.0 us,  0.0 sy,  0.0 ni,100.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu5  :  0.0 us,  0.0 sy,  0.0 ni,100.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu6  :  0.0 us,  0.0 sy,  0.0 ni,100.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu7  :  0.0 us,  0.0 sy,  0.0 ni,100.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem :  1867048 total,   214240 free,   913824 used,   738984 buff/cache
KiB Swap:  2098172 total,  2098172 free,        0 used.   790208 avail Mem 

   PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND       
     6 root      20   0    7312    100      0 R  99.7  0.0   1:26.20 stress        
    20 root      20   0   56168   1964   1440 R   0.3  0.1   0:00.02 top           
     1 root      20   0    7312    428    344 S   0.0  0.0   0:00.01 stress        
     7 root      20   0   11828   1892   1488 S   0.0  0.1   0:00.02 bash    

八.内存限额

与操作系统类似,容器可使用的内存包括两部分:物理内存和 Swap。 
Docker 通过下面两组参数来控制容器内存的使用量。


-m 或 --memory:设置内存的使用限额,例如 100M、1024M。 
--memory-swap:设置 内存+swap 的使用限额。 

eg:允许该容器最多使用 200M 的内存和 300M 的 swap

[root@localhost ~]# docker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 280M

--vm 1:启动 1 个内存工作线程。 
--vm-bytes 280M:每个线程分配 280M 内存。 默认情况下,容器可以使用主机上的所有空闲内存。
与 CPU 的 cgroups 配置类似, Docker 会自动为容器在目录 /sys/fs/cgroup/memory/docker/<容器的完整长 ID>中创建相应 cgroup 配置文件

如果让工作线程分配的内存超过 300M,分配的内存超过限额,stress 线程报错,容器 退出

[root@localhost ~]# docker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 500M
stress: info: [1] dispatching hogs: 0 cpu, 0 io, 1 vm, 0 hdd
stress: dbug: [1] using backoff sleep of 3000us
stress: dbug: [1] --> hogvm worker 1 [6] forked
stress: dbug: [6] allocating 524288000 bytes ...
stress: dbug: [6] touching bytes in strides of 4096 bytes ...
stress: FAIL: [1] (416) <-- worker 6 got signal 9
stress: WARN: [1] (418) now reaping child worker processes
stress: FAIL: [1] (422) kill error: No such process
stress: FAIL: [1] (452) failed run completed in 0s

九.Block IO 的限制

默认情况下,所有容器能平等地读写磁盘,可以通过设置--blkio-weight 参数来改变 容器 block IO 的优先级。 
--blkio-weight 与 --cpu-shares 类似,设置的是相对权重值,默认为 500。

eg:设置容器A的磁盘读写是容器B的俩倍

[root@localhost ~]# docker run -it --name container_A --blkio-weight 600 centos:stress 
[root@9897ad3130f9 /]# cat /sys/fs/cgroup/blkio/blkio.weight
600

[root@localhost ~]# docker run -it --name container_B --blkio-weight 300 centos:stress 
[root@0a48bf13f9f4 /]# cat /sys/fs/cgroup/blkio/blkio.weight
300

十.bps 和 iops 的限制

  • bps 是 byte per second,每秒读写的数据量。 
  • iops 是 io per second,每秒 IO 的次数。 

参数详解:

--device-read-bps,限制读某个设备的 bps。
--device-write-bps,限制写某个设备的 bps。
--device-read-iops,限制读某个设备的 iops。
--device-write-iops,限制写某个设备的 iops。

eg:限制容器写的速率为10M/s

[root@localhost ~]# docker run -it --device-write-bps /dev/sda:10MB centos:stress

测试写速率

[root@a66cfa4b566a /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct 
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied, 102.352 s, 10.5 MB/s

不限制容器写速率

[root@localhost ~]# docker run -it centos:stress 
[root@12c68538cf2a /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied, 0.921472 s, 1.2 GB/s

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Moon-01

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值