修改docker的默认网卡(网桥)

本文详细指导如何在Docker中手动创建网桥br0,将其设置为默认网卡,并配置新网段,以便容器使用。包括复制ifcfg文件、启动网桥、修改docker服务配置及验证效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • docker 引擎的默认网卡是docker0,当systemctl start docker 启动容器server时默认会生成一个网段为172.17.10.1/24 的网卡设备
  • docker0既是一个虚拟网卡、又是一个虚拟交换机
    网卡:实现了它跟宿主机的通信
    虚拟交换机:将它的网关加到容器中,使容器与容器之间,容器与外网可以通信

在这里插入图片描述
图中最下面的 eth0为本机的外网网卡设备

如何新增一个自定义的网卡?

1、获取本机的网卡 ifconfig
在这里插入图片描述
2、手动创建一个虚拟网卡(网桥)
cd /etc/sysconfig/network-scripts
cp ifcfg-ens33 ifcfg-br0
[root@node2 network-scripts]# vi ifcfg-br0
TYPE=“bridge”
BRIDGE=“br0”
BOOTPROTO=static
DEFROUTE=yes
NAME=br0
DEVICE=br0
ONBOOT=yes
IPADDR=192.168.10.135
GATEWAY=192.168.10.2
NETMASK=255.255.255.0
DNS1=8.8.8.8
3、启动新的网卡(网桥) ifconfig br0 up
4、修改docker.service 文件,增加-b br0 的参数
[root@node2 network-scripts]# vi /usr/lib/systemd/system/docker.service

ExecStart=/usr/bin/dockerd-current -b br0
这样指定启动服务时的网卡为br0
5、使参数生效:
systemctl daemon-reload
systemctl restart docker
6、查看网络,br0生效了:

[root@node2 ~]# ifconfig
br0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.18.0.1  netmask 255.255.0.0  broadcast 0.0.0.0
        ether 76:3e:f8:46:5e:e1  txqueuelen 1000  (Ethernet)
        RX packets 16  bytes 1088 (1.0 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

docker0: flags=4099<UP,BROADCAST,MULTICAST>  mtu 1500
        inet 172.17.10.1  netmask 255.255.255.0  broadcast 0.0.0.0
        inet6 fe80::42:4aff:fe6b:8061  prefixlen 64  scopeid 0x20<link>
        ether 02:42:4a:6b:80:61  txqueuelen 0  (Ethernet)
        RX packets 24  bytes 1632 (1.5 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 8  bytes 656 (656.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

ens33: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.10.135  netmask 255.255.255.0  broadcast 192.168.10.255
        inet6 fe80::9b50:e592:a2e1:5127  prefixlen 64  scopeid 0x20<link>
        ether 00:50:56:26:02:e6  txqueuelen 1000  (Ethernet)
        RX packets 862  bytes 69807 (68.1 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0

6、新启动一个容器

[root@node2 ~]# docker run -itd --name=nginx4 192.168.10.135:5000/nginx:v1
8bb095b460888d2519101bdcb7b47a617a55682b6d97ab4529c1cdbf8d458532

查看该容器的ip是br0 网卡的网段:

[root@node2 docker-static-ip]# docker inspect nginx4|grep -i ipa
            "SecondaryIPAddresses": null,
            "IPAddress": "172.18.0.3"
### 设置宿主机网卡Docker网桥的MTU值 为了确保网络通信正常,在配置宿主机网卡Docker网桥的MTU(最大传输单元)时,最佳实践是保持两者之间的MTU一致。如果宿主机连接的是具有特定MTU大小的物理网络,则应调整Docker网桥的MTU以匹配该值。 #### 查看当前MTU设置 首先确认现有接口的MTU: ```bash ip link show eth0 ``` 上述命令会显示`eth0`的相关信息以及其现有的MTU值[^1]。 #### 修改宿主机网卡MTU 假设目标MTU为1400字节,可通过如下方式修改宿主机上的`eth0`网卡MTU: ```bash sudo ip link set dev eth0 mtu 1400 ``` 此更改仅适用于当前会话;若需永久生效,可编辑相应的网络配置文件或通过其他持久化方法实现。 #### 调整Docker网桥MTU 对于新创建的容器,默认情况下它们会被分配到名为`docker0`的虚拟网桥下工作。为了让这些容器能够顺利与其他设备通讯,同样需要设定合适的MTU参数给这个网桥。可以在启动Docker服务之前通过环境变量来定义全局默认的MTU值: ```bash export DOCKER_OPTS="--mtu=1400" systemctl restart docker ``` 另外一种做法是在运行单个容器时显式指明所需使用的MTU选项: ```bash docker run --net=bridge --mac-address="xx:xx:xx:xx:xx:xx" --mtu=1400 ... ``` 当采用自定义网桥而非默认的`docker0`时,也可以直接在创建此类网络资源的同时指定对应的MTU属性: ```bash docker network create -d bridge --opt "com.docker.network.driver.mtu"=1400 my_bridge_network ``` 以上操作均有助于维持整个系统的稳定性和性能表现,特别是在跨越不同类型的网络环境中部署应用的情况下尤为重要[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值