docker网络
docker的镜像功能很强大,但是网络部分相对薄弱
docker原生网络
docker包含三种网络,分别是bridge,host和noll
bridge
bridge模式下,容器内没有一个公有IP,只有宿主机可以访问,外部主机不可见 容器可以通过宿主机的nat规则访问外网
docker安装时会创建一个名未docker0的Linux bridge, 新建的容器会自动桥接到这个接口
host
该网络模式在创建容器时需要指定 --network=host
- host模式可以让容器共享宿主机网络
好处是:外部主机可以直接与容器通信,但是容器的网络缺少隔离性
none
none指禁用网络功能,只有io接口,在容器创建时使用
docker自定义网络
自定义网络模式,docker提供了三种自定义网络驱动:
- bridge
- overlay
- macvlan
bridge驱动类似默认的bridge网络模式,但增加了一些新的功能,overlay和macvlan是创建垮主机网络 - 建议使用定义的网络来控制哪些容器可以互相通信,还可以自动DNS解析容器名称到IP地址
自定义bridge
支持自定义网段,指定子网地址和网关
使用–ip可以指定容器IP,但必须是在自定义网桥上,默认的bridge不支持,
- 同一网桥上的容器时可以互通的
桥接到不同网桥上的容器是不通的,
docker在设计上是要隔离不同network
如何使得不同网桥上的容器能够通信?
docker network connect
docker容器通信
- 容器之间除了使用IP通信之外,还可以使用容器名称通信
- 从docker 1.10开始,内嵌了一个DNS server
- 启动容器时,使用–name参数指定容器名称
- Joined容器是一种较为特别的网络模式
- 在容器创建时使用–network=container:vm1指定
这里vm1指正在运行的容器名称
处于这种模式下的docker容器会共享一个网络栈,这样两个容器之间就可以使用localhost高效通信。
下图所示的两个容器的IP地址相同
- - link 用来连接两个容器
容器访问外网
容器访问外网是通过iptables的SNAT规则实现的
外网访问容器
外网访问容器用到了docker-proxy和iptables DNAT
宿主机访问本机容器使用的是iptables DNAT
外部主机访问容器或者容器之间使用的是docker-proxy
端口映射
使用另一台主机server8访问server7的IP地址,默认访问80端口
因为设置了端口映射,所以直接访问到web1容器
可以直接使用宿主机上的文件直接修改容器内的文件
跨主机容器通信
- 跨主机网络解决方案
docker原生的overlay和macvlan
第三方的flannel 、weave、calicl - 众多网络方案是如何与docker集成在一起的
libnetwork docker容器网络库
CNM (Container Network Model)这个模型对网络进行了抽象
- CNM分三类组件
Sandbox:容器网络栈,包含容器接口,dns,路由表
Endpoint:作用是将sandbox接入network
Network:包含一组endpoint,同一network的endpoint可以通信
- macvlan网络方案的实现
linux kernel提供的一种网卡虚拟化技术
无需linux bridge,直接使用物理接口,性能极好
将两台docker主机上server6、server7 的eth0网卡,打开网卡混杂模式
server6上创建macvlan网络
server7创建macvlan网络
容器的接口直接与主机网卡相连,无需NAT或者端口映射
相同macvlan的容器是可以直接通信的
macvlan会独占主机网卡,但可以使用vlan子接口实现多macvlan网络
vlan可以将物理二层网络划分为4094格逻辑网络,彼此隔离,vlan id取值的1~4094
- macvlan网络间的隔离和连通
- macvlan网络在二层上是隔离的,所以不同macvlan网络的容器时不能通信的
- 可以在三层上通过网关将macvlan网络连通起来
- docker本身不做限制,像传统vlan网络那样管理即可