linux bond(网卡链路聚合)

当前使用 CentOS 7进行配置

一、创建bondens33配置文件

#vi /etc/sysconfig/network-scripts/ifcfg-bondens33
DEVICE=bondens33
BOOTPROTO=none
USERCTL=no
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=no
IPV6INIT=no
BONDING_OPTS="mode=balance-alb miimon=100 downdelay=5000 updelay=5000 num_grat_arp=100"
#MTU=65520          #infiniband才需要
IPADDR=192.168.1.40
NETMASK=255.255.255.0
GATEWAY=192.168.1.2

需要修改上面的IPADDR,NETWORK,NETMASK为你自己的环境配置

七种bond模式说明:
第一种模式:mod=0 ,即:(balance-rr) Round-robin policy(平衡抡循环策略)
特点:传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降
第二种模式:mod=1,即: (active-backup) Active-backup policy(主-备份策略)
特点:只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得,从外面看来,bond的MAC地址是唯一的,以避免switch(交换机)发生混乱。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有 N 个网络接口的情况下,资源利用率为1/N
第三种模式:mod=2,即:(balance-xor) XOR policy(平衡策略)
特点:基于指定的传输HASH策略传输数据包。缺省的策略是:(源MAC地址 XOR 目标MAC地址) % slave数量。其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力
第四种模式:mod=3,即:broadcast(广播策略)
特点:在每个slave接口上传输每个数据包,此模式提供了容错能力
第五种模式:mod=4,即:(802.3ad) IEEE 802.3ad Dynamic link aggregation(IEEE 802.3ad 动态链接聚合)
特点:创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。
外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。需要注意的 是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应 性。
必要条件:
条件1:ethtool支持获取每个slave的速率和双工设定
条件2:switch(交换机)支持IEEE 802.3ad Dynamic link aggregation
条件3:大多数switch(交换机)需要经过特定配置才能支持802.3ad模式
第六种模式:mod=5,即:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡)
特点:不需要任何特别的switch(交换机)支持的通道bonding。在每个slave上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。
该模式的必要条件:ethtool支持获取每个slave的速率
第七种模式:mod=6,即:(balance-alb) Adaptive load balancing(适配器适应性负载均衡)
特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receive load balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。
注意:这里使用的是模式6,负载均衡模式;网卡检查时间100ms,同时极力推荐使用模式6(适配器适应性负载均衡)

二、修改ens33和ens37配置文件

注意:这里是虚拟机上配置,所以可以很方便的添加多块网卡。

  • 使用vi修改ens33配置文件
# vi /etc/sysconfig/network-scripts/ifcfg-ens33      添加或替换内容:
DEVICE=ens33
USERCTL=no
ONBOOT=yes
NM_CONTROLLED=no
MASTER=bondens33
SLAVE=yes
BOOTPROTO=none
HOTPLUG=no
HWADDR=00:0C:29:78:F8:E1
  • 使用vi修改eth1配置文件
# vi /etc/sysconfig/network-scripts/ifcfg-eth1 添加或替换内容:
DEVICE=ens37
USERCTL=no
ONBOOT=yes
NM_CONTROLLED=no
MASTER=bondens33
SLAVE=yes
BOOTPROTO=none
HOTPLUG=no
HWADDR=00:0C:29:78:F8:EB

在这里插入图片描述

保存并退出

三、加载bond驱动

通过修改内核模块配置文件modprobe.conf加载bond驱动。

vi /etc/modprobe.conf (文件可能不存在,则vim /etc/modprobe.d/bond.conf )添加下面的内容:
alias bondeth0 bonding

4.测试配置
首先,加载bond module:

modprobe bonding

然后,重新启动网络服务

service network restart

查看绑定网卡的信息:

cat /proc/net/bonding/bondens33

在这里插入图片描述

查看bonding模块详细信息

modinfo bonding

filename /lib/modules/3.10.0-229.el7.x86_64/kernel/drivers/net/bonding/bonding.ko

配置系统启动时加载bonding模块

vi /etc/sysconfig/modules/bonding.modules
#!/bin/sh
/sbin/modinfo -F filename bonding > /dev/null 2>&1
if [ $? -eq 0 ];then
    /sbin/modprobe bonding
fi

设置执行权限

chmod 755 /etc/sysconfig/modules/bonding.modules

重启查看是否生效

reboot
  • 15
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Linux网卡链路聚合(Link Aggregation)是一种将多个物理网卡绑定在一起,形成一个逻辑上的高带宽、高可用性的网络接口的技术。通过链路聚合,可以提高网络传输的带宽和可靠性。 在Linux系统中,可以使用Linux内核提供的bonding模块来实现双网卡链路聚合。下面是实现双网卡链路聚合的步骤: 1. 确保系统已经安装了bonding模块。可以通过执行以下命令来检查: ``` lsmod | grep bonding ``` 如果没有输出结果,则需要加载bonding模块: ``` modprobe bonding ``` 2. 编辑网络配置文件,通常位于`/etc/sysconfig/network-scripts/`目录下。找到对应的网卡配置文件,例如`ifcfg-eth0`和`ifcfg-eth1`。 3. 修改网卡配置文件,将以下参数添加或修改为相同的值: ``` DEVICE=bond0 TYPE=Bond BONDING_MASTER=yes BOOTPROTO=none ONBOOT=yes IPADDR=<IP地址> NETMASK=<子网掩码> GATEWAY=<默认网关> BONDING_OPTS="mode=<聚合模式> miimon=<监测间隔> downdelay=<失效延迟> updelay=<恢复延迟>" ``` 其中,`<IP地址>`、`<子网掩码>`和`<默认网关>`需要根据实际情况进行配置。`<聚合模式>`可以选择不同的模式,例如`balance-rr`(负载均衡)、`active-backup`(主备模式)等。`<监测间隔>`、`<失效延迟>`和`<恢复延迟>`可以根据需求进行调整。 4. 修改网卡配置文件,将以下参数添加或修改为不同的值: ``` DEVICE=eth0 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond0 SLAVE=yes ``` 同样地,对于第二个网卡的配置文件,将`DEVICE`和`MASTER`的值改为对应的网卡bond0。 5. 重启网络服务,使配置生效: ``` systemctl restart network ``` 至此,双网卡链路聚合就已经配置完成了。系统会自动将两个物理网卡绑定成一个逻辑网卡bond0,并根据配置的聚合模式进行数据传输。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

false_or_true

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值