Docker容器---网络、容器操作

一、Docker网络的实现原理

Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的 Container-IP 直接通信。

容器内先安装net-tools工具 yum install -y net-tools 然后查看容器IP(container ip)

Docker网桥是宿主机虚拟出来的,并不是真实存在的网络设备,外部网络是无法寻址到的,这也意味着外部网络无法直接通过Container-IP访问到容器。如果容器希望外部访问能多访问到,可以通过映射容器端口到宿主主机(端口映射),即 docker -run 创建容器时候通过-p或-P参数来启用,访问容器的时候就通过 [宿主机IP地址]:[容器端口] 访问容器

安装Docker时,它会自动创建三个网络,Bridge (创建容器默认连接到此网络)、None 、Host

#查看docker网络列表
docker network ls
或
docker network list	

使用docker run 创建Docker容器时,可以 --net 或 --network 选项指定容器的网络模式

  • Host模式:使用--net=host 指定。
  • None模式:使用--net=none 指定。
  • Container模式:使用--net=container:NAME_ _or_ ID指定。
  • Bridge模式:使用--net=bridge 指定,默认设置,可省略。

二、Docker 的网络模式

  • Host:容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口。
  • Container:创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围。
  • None:该模式关闭了容器的网络功能。
  • Bridge:默认为该模式,此模式会为每一个容器分配、设置IP等,并将容器连接到一个docker0虚拟网桥,通过docker0网桥以及iptables nat 表配置与宿主机通信。
  • 自定义网络  

1、Host模式

容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口范围。

如果启动容器的时候使用host模式,那么这个容器将不会获得一个独立的 NetworkNamespace,而是和宿主机共用一个 Network Namespace。容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口。但是,容器的其他方面,如文件系统、进程列表等还是和宿主机隔离的。

使用host模式的容器可以直接使用宿主机的Ip地址与外界通信,容器内部的服务端口也可以使用宿主机的端口,不需要进行NAT,host最大的优势就是网络性能比较好,但是dockerhost 上已经使用的端口就不能再用了,网络的隔离性不好。

解决了IP地址不固定的情况,相当于Vmware中的桥接模式,与宿主机在同一个网络中,但没有独立IP地址。

Docker使用了Linux的Namespaces技术来进行资源隔离,如PID Namespace隔离进程,Mount Namespace隔离文件系统,Network Namespace隔离网络等。

一个Network Namespace提供了一份独立的网络环境,包括网卡、路由、iptable规则等都与其他的Network Namespace隔离。

一个Docker容器一般会分配一个独立的Network Namespace。 但如果启动容器的时候使用host模式,那么这个容器将不会获得一个独立的Network Namespace, 而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡、配置自己的IP等,而是使用宿主机的IP和端口。

#创建容器web 1,指定网络模式为 host
#因为是host模式,所有宿主机和容器共享ip和端口
[root@localhost ~]#docker run -d --name web1 --net=host nginx

#访问宿主机的ip和80端口,则可以访问到web3的nginx服务
 firefox  http://192.168.10.100:80

2、container模式

创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围

创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围(端口不能一致),只有一个容器有自己的网卡,出去还是docker 0进行通讯(有点像各个服务放在同一个宿主机上面这种情况)

这个模式指定新创建的容器和已经存在的一个容器共享一个 Network Namespace(网络命名空间),而不是和宿主机共享。同样两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。两个容器的进程可以通过 lo 网卡设备通信。

#基于镜像centos:7 创建一个名为test1的容器
[root@localhost ~]#docker run  -itd --name test1 centos:7 /bin/bash
[root@localhost ~]#docker inspect -f '{{.State.Pid}}' 469f26e05a02
#查看容器的pid号
root@localhost ~]#docker inspect -f '{{.State.Pid}}' 469f26e05a02
4496
#查看该容器的命名空间编号
[root@localhost opt]#ll /proc/4496/ns
总用量 0
lrwxrwxrwx 1 root root 0 4月  26 04:01 ipc -> ipc:[4026532626]
lrwxrwxrwx 1 root root 0 4月  26 04:01 mnt -> mnt:[4026532624]
lrwxrwxrwx 1 root root 0 4月  26 03:58 net -> net:[4026532629]
lrwxrwxrwx 1 root root 0 4月  26 04:01 pid -> pid:[4026532627]
lrwxrwxrwx 1 root root 0 4月  26 04:01 user -> user:[4026531837]
lrwxrwxrwx 1 root root 0 4月  26 04:01 uts -> uts:[4026532625]

#创建test2容器,使用container网络模式,和test1共享network Namespace
[root@localhost ~]#docker run -itd --name test2 --net=container:test1 centos:7 /bin/bash
#查看test2容器的pid
[root@localhost ~]#docker inspect -f '{{.State.Pid}}' 4e6446e7a34e
4790
#查看该容器的命名空间编号
[root@localhost opt]#ll /proc/4790/ns
总用量 0
lrwxrwxrwx 1 root root 0 4月  26 04:06 ipc -> ipc:[4026532745]
lrwxrwxrwx 1 root root 0 4月  26 04:06 mnt -> mnt:[4026532743]
lrwxrwxrwx 1 root root 0 4月  26 04:06 net -> net:[4026532629]
lrwxrwxrwx 1 root root 0 4月  26 04:06 pid -> pid:[4026532746]
lrwxrwxrwx 1 root root 0 4月  26 04:06 user -> user:[4026531837]
lrwxrwxrwx 1 root root 0 4月  26 04:06 uts -> uts:[4026532744]

3、None模式

该模式关闭了容器的网络功能。

使用none模式,Docker容器拥有自己的Network Namespace,但是并不为Docker容器进行任何网络配置。也就是说,这个Docker容器没有网卡、IP、路由等信息,需要我们自己为Docker容器添加网卡、配置IP等。

这种网络模式下容器只有lo回环网络,没有其他网卡。这种类型的网络没有办法联网,封闭的网络能很好的保证容器的安全性,可以安全的储存数据,不会被攻击,可以用来当个仓库。

docker run -itd --name web3 --network=none centos:7 /bin/bash

[root@localhost ~]#docker inspect web3
[root@localhost ~]#docker inspect web3 | grep NetworkMode

4、Bridge模式(默认)

默认为该模式,此模式会为每一个容器分配、设置IP等,并将容器连接到一个docker0虚拟网桥,通过docker0网桥以及iptables nat 表配置与宿主机通信。

此模式会为每一个容器分配、设置IP等,并将容器连接到一个docker0虚拟网桥,通过docker0网桥以及iptables nat表配置与宿主之间的关联

  1. 当Docker进程启动时,会在主机上创建一个名为docker0的虚拟网桥,此主机上启动的Docker容器会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。
  2. 从docker0子网中分配一个IP给容器使用,并设置docker0的IP地址为容器的默认网关。在主机上创建一对虚拟网卡veth pair设备,Docker将veth pair设备的一端放在新创建的容器中,并命名为eth0(容器的网卡),另一端放在主机中,以veth xxx这样类似的名字命名,并将这个网络设备加入到docker0网桥中。可以通过brctl show命令查看。
  3. bridge模式是docker的默认网络模式,不写–net参数,就是bridge模式。使用docker run -p时,docker实际是在iptables做了DNAT规则,实现端口转发功能。可以使用iptables -t nat -vnL查看。
[root@localhost opt]#docker run -itd --name test3 centos:7 /bin/bash
952506852dac333f17da80f2d955add3dab8b8a9a686a8eac5495ba0811e63a8
[root@localhost opt]#docker inspect test3 | grep -i 'networkmode'
            "NetworkMode": "bridge",

brctl show  ##查看docker网桥

5、自定义网络模式

1.查看网络模式列表

先自定义网络,再使用指定IP运行docker

[root@localhost ~]#docker network ls

2.查看容器信息

配置  环境  网关  挂载   cmd信息

docker inspect  容器ID

3.指定分配IP地址

创建自定义网络 hg

docker run -itd --name test1 --network bridge --ip 172.17.0.10 centos:7 /bin/bash
#以上会报错,因为用户使用的ip地址不被规则所允许,docker0定义的就是按照顺序来,所有需要创建一个

docker network create --subnet=172.18.0.0/16 hg

进入容器

[root@localhost ~]#docker exec -it test2 bash
[root@c9da0f0f01a6 /]# yum install -y net-tools

4.自定义网络固定IP

可以先自定义网络,再使用IP运行docker

[root@localhost ~]#docker run -itd --name test02 --net hg --ip 172.18.0.8 centos:7 /bin/bash    ##hg时指定的网桥名称
[root@localhost ~]#docker inspect test02 |grep IPAddress

三、暴露端口

两个端口一样的情况下,暴露出去会导致地址冲突,所有需要docker0上需要做一个端口映射,通过ens33暴露出去端口不同就可以

[root@localhost ~]#docker run -itd -p 8082:80 nginx:latest /bin/bash
[root@localhost ~]#docker ps -a
[root@localhost ~]#docker exec -it 5087c165e1c4 /bin/bash

[root@localhost ~]#docker run -itd -P nginx:latest /bin/bash

四、容器端口映射

1、床架端口映射

随机映射端口(从32768开始)docker run -d --name  为容器指定名称 -P   镜像

指定映射端口docker   run -d --name 为容器指定名称  -p  宿主机端口:容器内端口   镜像

#使用nginx镜像创建容器,名称为web1 ,随机映射端口
[root@localhost ~]#docker run -d --name web1 -P nginx:latest
[root@localhost ~]#docker ps -a
CONTAINER ID   IMAGE          COMMAND                   CREATED         STATUS         PORTS                                     NAMES
44e97729e4c8   nginx:latest   "/docker-entrypoint.…"   5 seconds ago   Up 5 seconds   0.0.0.0:32770->80/tcp, :::32770->80/tcp   web1
#使用nginx镜像创建容器,名称为web2,将容器内的80端口映射到宿主机的39901端口
[root@localhost ~]#docker run -d --name web2 -p 39901:80 nginx:latest
[root@localhost ~]#docker ps -a
CONTAINER ID   IMAGE          COMMAND                   CREATED              STATUS              PORTS                                     NAMES
993ddb2ddae1   nginx:latest   "/docker-entrypoint.…"   3 seconds ago        Up 2 seconds        0.0.0.0:39901->80/tcp, :::39901->80/tcp   web2
44e97729e4c8   nginx:latest   "/docker-entrypoint.…"   About a minute ago   Up About a minute   0.0.0.0:32770->80/tcp, :::32770->80/tcp   web1
#主机查看端口号
[root@localhost ~]#ss -natp | grep docker
LISTEN     0      128          *:39901                    *:*                   users:(("docker-proxy",pid=78182,fd=4))
LISTEN     0      128          *:32770                    *:*                   users:(("docker-proxy",pid=77893,fd=4))
LISTEN     0      128         :::39901                   :::*                   users:(("docker-proxy",pid=78188,fd=4))
LISTEN     0      128         :::32770                   :::*                   users:(("docker-proxy",pid=77900,fd=4))
#实际上是通多nat表进行转发
[root@localhost ~]#iptables -nL -t nat

五、资源控制

1、CPU资源控制

cgroups,是一个非常强大的linux内核工具,他不仅可以限制被 namespace 隔离起来的资源, 还可以为资源设置权重、计算使用量、操控进程启停等等。 所以 cgroups(Control groups)实现了对资源的配额和度量。

2、cgroups有四大功能:

  • 资源限制:可以对任务使用的资源总额进行限制
  • 优先级分配:通过分配的cpu时间片数量以及磁盘IO带宽大小,实际上相当于控制了任务运行优先级
  • 资源统计:可以统计系统的资源使用量,如cpu时长,内存用量等
  • 任务控制:cgroup可以对任务执行挂起、恢复等操作

1.设置CPU使用率上限

Linux通过CFS(Completely Fair Scheduler,完全公平调度器)来调度各个进程对CPU的使用。CFS默认的调度周期是100ms。我们可以设置每个容器进程的调度周期,以及在这个周期内各个容器最多能使用多少 CPU 时间。

使用 --cpu-period 即可设置调度周期,使用 --cpu-quota 即可设置在每个周期内容器能使用的CPU时间。两者可以配合使用。

CFS 周期的有效范围是 1ms~1s,对应的 --cpu-period 的数值范围是 1000~1000000。 周期100毫秒 而容器的 CPU 配额必须不小于 1ms,即 --cpu-quota 的值必须 >= 1000。

2.压力测试

[root@localhost ~]#docker exec -it 457fd299751f /bin/bash
[root@457fd299751f /]# vim /cpu.sh
#!/bin/bash
i=0
while true
do
let i++
done

[root@457fd299751f /]# vim /cpu.sh
[root@457fd299751f /]# chmod +x /cpu.sh 
[root@457fd299751f /]# ./cpu.sh 
#在另开一个窗口
[root@localhost /]#top

1.设置50%的比例分配CPU使用时间上限
[root@localhost ~]#docker run -itd --name test03 centos:7 /bin/bash
bc2ccfcca5f15c1a9c813c1775c20b7bf076b7ef350b9c1ec2a8c80ba15f66db
[root@localhost ~]#docker ps -a | grep test03
bc2ccfcca5f1   centos:7       "/bin/bash"               33 seconds ago   Up 33 seconds                       test03

[root@localhost ~]#cd /sys/fs/cgroup/cpu/docker/bc2ccfcca5f15c1a9c813c1775c20b7bf076b7ef350b9c1ec2a8c80ba15f66db/
[root@localhost bc2ccfcca5f15c1a9c813c1775c20b7bf076b7ef350b9c1ec2a8c80ba15f66db]#ls
cgroup.clone_children  cpuacct.stat          cpu.cfs_period_us  cpu.rt_runtime_us  notify_on_release
cgroup.event_control   cpuacct.usage         cpu.cfs_quota_us   cpu.shares         tasks
cgroup.procs           cpuacct.usage_percpu  cpu.rt_period_us   cpu.stat
[root@localhost bc2ccfcca5f15c1a9c813c1775c20b7bf076b7ef350b9c1ec2a8c80ba15f66db]#cat cpu.cfs_period_us 
100000
[root@localhost bc2ccfcca5f15c1a9c813c1775c20b7bf076b7ef350b9c1ec2a8c80ba15f66db]#cat cpu.cfs_quota_us 
-1
[root@localhost bc2ccfcca5f15c1a9c813c1775c20b7bf076b7ef350b9c1ec2a8c80ba15f66db]#echo 50000 > cpu.cfs_quota_us 
[root@localhost bc2ccfcca5f15c1a9c813c1775c20b7bf076b7ef350b9c1ec2a8c80ba15f66db]#cat cpu.cfs_quota_us 
50000

[root@localhost bc2ccfcca5f15c1a9c813c1775c20b7bf076b7ef350b9c1ec2a8c80ba15f66db]#docker exec -it test03 /bin/bash
[root@bc2ccfcca5f1 /]# vi test.sh 
[root@bc2ccfcca5f1 /]# 


#!/bin/bash
i=0
while true
do
let i++
done

[root@bc2ccfcca5f1 /]# chmod +x test.sh
[root@bc2ccfcca5f1 /]# ./test.sh
##需要再开一个窗口
[root@localhost ~]#top
[root@localhost ~]#docker stats   ##也可以查看

 

2.设置CPU资源占用比(设置多个容器时才有效)

Docker 通过 --cpu-shares 指定 CPU 份额,默认值为1024,值为1024的倍数。

#创建两个容器为 c1 和 c2,若只有这两个容器,设置容器的权重,使得c1和c2的CPU资源占比为1/3和2/3。
docker run -itd --name c1 --cpu-shares 512 centos:7	
docker run -itd --name c2 --cpu-shares 1024 centos:7
[root@localhost ~]#docker run -itd --name c1 --cpu-shares 512 centos:7
[root@localhost ~]#docker run -itd --name c2 --cpu-shares 1024 centos:7

[root@localhost ~]#docker exec -it f0f4b57bb776 /bin/bash
[root@f0f4b57bb776 /]# yum install -y epel-release
[root@f0f4b57bb776 /]# yum install -y stress

 

stress -c 4

3.设置容器绑定指定的CPU

#先分配虚拟机4个CPU核数
[root@localhost ~]#docker run -itd --name web4  --cpuset-cpus 1 centos:7 /bin/bash
 
#进入容器,进行压力测试
yum install -y epel-release
yum install stress -y
stress -c 4
 
#退出容器,执行 top 命令再按 1 查看CPU使用情况。

4.对内存使用的限制

1.限制容器可以使用得最大内存

-m(–memory=) 选项用于限制容器可以使用的最大内存

docker run -itd --name web5 -m 512m centos:7 /bin/bash
#创建并启动容器centos7命名为web5,限制最大内存为512mb
docker stats
#查看容器运行状态

2.限制可用的swap大小

强调一下,--memory-swap 是必须要与 --memory 一起使用的。

  • 正常情况下,--memory-swap 的值包含容器可用内存和可用 swap。
    • 所以 -m 300m --memory-swap=1g 的含义为:容器可以使用 300M 的物理内存,并且可以使用 700M(1G - 300)的 swap
如果 --memory-swap 设置为 0 或者 不设置,则容器可以使用的 swap 大小为 -m 值的两倍。
如果 --memory-swap 的值和 -m 值相同,则容器不能使用 swap
如果 --memory-swap 值为 -1,它表示容器程序使用的内存受限,而可以使用的 swap 空间使用不受限制(宿主机有多少 swap 容器就可以使用多少)
docker run -itd --name web6 -m 512m --memory-swap=1G centos:7 /bin/bash

3、磁盘IO配额控制(blkio)的限制

--device-read-bps:限制某个设备上的读速度bps(数据量),单位可以是kb、mb(M)或者gb。
例:docker run -itd --name web7 --device-read-bps /dev/sda:1M  centos:7 /bin/bash
 
--device-write-bps : 限制某个设备上的写速度bps(数据量),单位可以是kb、mb(M)或者gb。
例:docker run -itd --name web8 --device-write-bps /dev/sda:1mb centos:7 /bin/bash
 
--device-read-iops :限制读某个设备的iops(次数)
 
--device-write-iops :限制写入某个设备的iops(次数)
docker run -itd --name web7 --device-read-bps /dev/sda:1M centos:7 /bin/bash
dd if=/dev/zero  of=/test.out bs=2M count=5 oflag=driect

1.创建容器,并限制写速度

docker run -itd --name web8 --device-read-bps /dev/sda:1mb centos:7 /bin/bash
#创建容器,并限制写入速度为1MB/s,即每秒只能写入1MB的数据量。
docker run -itd --name web9 --device-write-bps /dev/sda:1mb centos:7 /bin/bash
#通过dd来验证写速度,拷贝50M的数据到容器中
dd if=/dev/zero of=/test.out bs=2M count=5 oflag=direct  #添加oflag参数以规避掉文件系统cache

2.清理docker占用的磁盘空间

[root@localhost ~]#docker system prune -a   #可以用于清理磁盘,删除关闭的容器、无用的数据卷和网络

 

六、故障处理

1、由于docker容器故障导致大量日志集满,会造成磁盘空间爆满

2、解决方案

1.清理日志

[root@localhost ~]#docker run -itd centos:7 /usr/bin/bash -c "while true;do echo hello;done"
04638eef96e6975f48184b8459af78a06f7d9f43aaa6e2fb5c82050ef6527f7a
[root@localhost ~]#cd /var/lib/docker/containers/

[root@localhost containers]#du -sh *

写脚本清理docker容器空间

#!/bin/bash
logs=$(find /var/lib/docker/containers/ -name *-json.log*)
for log in $logs
do
cat /dev/null > $log
done

再次查看docker空间

2.当日志占满之后如何处理

1.设置docker日志文件数量及每个日志大小
设置docker日志文件数量及每个日志大小
 vim /etc/docker/daemon.json
{
"registry-mirrors": ["http://f613ce8f.m.daocloud.io"],
"log-driver": "json-file",   #我的一日志格式
"log-opts": { "max-size" : "500m", "max-file" : "3"}   日志的参数最大500M   我最大容器中有三个日志文件 每个日志文件大小是500M
}
 
修改完需要重新加载  systemctl daemon-reload

 总结

1、对cpu得限制参数

 docker run -cpu-period     #设置调度周期时间1000~1000000
            -cpu-quota      #设置容器进程的CPU占用时间,要与调度周期时间成比例
            --cpu-shares    #设置多个容器之间的CPU资源占用比
            --cpuset-cpus   #绑核(第一个CPU编号从0开始)

2、对内存的限制

 -m 物理内存 [--memory-swap=总值]

3、对磁盘IO得限制

 --device-read-bps 设备文件:1mb/1M     #限制读速度
 --device-write-bps 设备文件:1mb/1M    #限制写速度
 --device-read-iops                   #限制读次数
 --device-write-iops                  #限制写次数
 ​docker system prune -a             #释放无用的资源
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值