centos的bond配置

centos的bond配置

bond类型
0-为容错和负载平衡设置循环策略。从第一个可用的从接口开始,在每个从接口上顺序地接收和发送传输。
1-为容错设置活动备份策略。通过第一个可用的保税从机接口接收和发送传输。仅当活动的从接口出现故障时,才使用另一个从接口。
2-为容错和负载平衡设置异或(异或)策略。使用此方法,接口将传入请求的MAC地址与其中一个从nic的MAC地址相匹配。一旦建立了这个链路,传输就从第一个可用接口开始按顺序发送。
3-为容错设置广播策略。所有传输都在所有从机接口上发送。
4-设置IEEE802.3ad动态链路聚合策略。创建共享相同速度和双工设置的聚合组。在活动聚合器中的所有从属服务器上传输和接收。需要符合802.3ad的交换机。
5-为容错和负载平衡设置传输负载平衡(TLB)策略。输出流量根据每个从接口上的当前负载进行分配。传入的通信量由当前从机接收。如果接收从机发生故障,另一个从机将接管发生故障的从机的MAC地址。
6-为容错和负载平衡设置活动负载平衡(ALB)策略。包括IPV4流量的传输和接收负载平衡。接收负载均衡是通过ARP协商实现的。

查看网卡信息
[root@localhost ~]# ip addr

1 备份网卡配置文件

[root@localhost ~]# cd /etc/sysconfig/network-scripts/
[root@localhost network-scripts]# mkdir /tmp/net_bak
[root@localhost network-scripts]# cp ifcfg-*/tmp/net_bak/
[root@localhost network-scripts]# ls /tmp/net_bak/
ifcfg-eno16777736 ifcfg-a ifcfg-b ifcfg-lo

2 使用nmcli命令配置bond

#生成bond配置文件
[root@localhost network-scripts]# nmcli connection add type bond ifname bond0 mode 1

#将网卡eno33554960eno50332184绑定到bond0
[root@localhost network-scripts]# nmcli connection add type bond-slave ifname eno33554960 master bond0
[root@localhost network-scripts]# nmcli connection add type bond-slave ifname eno50332184 master bond0

#查看生成的配置文件
[root@localhost network-scripts]# ls ifcfg-bond-*
ifcfg-bond-bond0 ifcfg-bond-slave-eno33554960 ifcfg-bond-slave-eno50332184

bond的mode如下:
balance-rr (0) –轮询模式,负载均衡(bond默认的模式)
active-backup (1) –主备模式(常用)
balance-xor (2)
broadcast (3)
802.3ad (4) –聚合模式
balance-tlb (5)
balance-alb (6)

3 修改bond0网卡配置

[root@localhost network-scripts]# vim ifcfg-bond-bond0
DEVICE=bond0
BONDING_OPTS=mode=active-backup
TYPE=Bond
BONDING_MASTER=yes
BOOTPROTO=static====>将 dhcp 改为static
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
NAME=bond-bond0
UUID=af2d6662-608c-4f5d-8018-1984cc3d87ef
ONBOOT=yes
IPADDR=192.168.92.20# 配置 IP 地址
PREFIX=24# 配置掩码 也可以使用 NETMASK=255.255.255.0
GATEWAY=192.168.92.2# 配置网关

Tips: 如果不想修改bond网络接口配置文件可以在第2步的第一条命令后加上 ip4 “ip地址” gw4 “网关地址”
nmcli connection add type bond ifname bond0 mode 1 ip4 192.168.92.20/24 gw4 192.168.92.2

4 重启网络,验证配置结果

  1. 查看网卡信息
    [root@localhost network-scripts]# ip addr show
  2. 查看bond信息
    [root@localhost network-scripts]# cat /proc/net/bonding/bond0
    EthernetChannelBondingDriver: v3.7.1(April27,2011)
    BondingMode: fault-tolerance (active-backup)===> bond主备模式
    PrimarySlave:None
    CurrentlyActiveSlave: eno33554960 ===>当前激活的网卡eno33554960
    MII Status: up
    MII PollingInterval(ms):100
    UpDelay(ms):0
    DownDelay(ms):0
    SlaveInterface: eno33554960 ===> bond0 组内的网卡
    MII Status: up
    Speed:1000Mbps
    Duplex: full
    LinkFailureCount:0
    Permanent HW addr:00:0c:29:07:2c:90
    Slave queue ID:0
    SlaveInterface: eno50332184 ===> bond0 组内的网卡
    MII Status: up
    Speed:1000Mbps
    Duplex: full
    LinkFailureCount:0
    Permanent HW addr:00:0c:29:07:2c:9a
    Slave queue ID:0

5 删除 bond 设备

1.查看网络设备
[root@localhost ~]# ls /sys/class/net/
2.删除bond网络设备
直接删除bond0,会提示无权限。
可以通过bonding_masters文件删除bond设备,但是bonding_masters文件是无法直接修改的。
[root@localhost ~]# echo -bond0 >/sys/class/net/bonding_masters
echo 后面的 ‘-’ 是删除设备,‘+’是增加设备

交换机配置

#1. 配置动态AGG,通过命令行进入全局配置模式

通过命令行进入全局配置模式:

聚合组的负载均衡模式(load-balance-mode)共分为四种,分别是:
SLB - static load balance
DLB - dynamic load balance
SHLB - self-healing load balance
RR - round robin load balance
查看当前交换机上当前所有聚合组,显示如下:
在交换机上运行 show channel-group summary
在这里插入图片描述
DLB模式创建
通过命令行创建一个新的聚合组3,并设定负载均衡模式为dynamic:
在这里插入图片描述
将SP1端控制器上用于聚合的两个万兆口在交换机上的端口加入到聚合组3中,命令如下:
在这里插入图片描述
在这里插入图片描述
查看端口组情况,如下图所示:
在这里插入图片描述
通过命令行创建一个新的聚合组4,并设定负载均衡模式为dynamic:
在这里插入图片描述
将SP2端控制器上用于聚合的两个万兆口在交换机上的端口加入到聚合组4中,命令如下:
在这里插入图片描述
在这里插入图片描述
查看端口组情况,如下图所示:
在这里插入图片描述
删除组配置
选择端口
interface eth-0-40
no channel-group

  • 0
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
首先,bonding 是一种网络适配器绑定技术,可以将多个物理网络适配器(网卡)绑定成一个逻辑适配器,从而提高网络吞吐量和可靠性。在这里,我们假设您要配置一个 bond4 网络适配器。 以下是在 CentOS 7 操作系统中配置 bond4 的步骤: 1. 安装 bonding 模块 使用以下命令安装 bonding 模块: ``` yum install -y bonding ``` 2. 创建 ifcfg-bond4 文件 在 /etc/sysconfig/network-scripts 目录下创建 ifcfg-bond4 文件,并添加以下内容: ``` DEVICE=bond4 BOOTPROTO=none ONBOOT=yes NETMASK=255.255.255.0 IPADDR=<IP 地址> GATEWAY=<网关地址> BONDING_OPTS="mode=<模式>, miimon=100" ``` 其中,<IP 地址> 和 <网关地址> 分别为您需要分配给 bond4 的 IP 地址和网关地址,<模式> 为您选择的 bonding 模式,可以是以下其中之一: - balance-rr:负载均衡模式,数据包按照轮询方式发送到不同的物理网卡上; - active-backup:主备模式,一个物理网卡为活动状态,其他网卡为备份状态,当活动网卡失效时,备份网卡接管工作; - balance-xor:异或模式,数据包按照一定规则发送到不同的物理网卡上,确保相同的数据包发送到相同的网卡上; - broadcast:广播模式,数据包广播到所有物理网卡上; - 802.3ad:链路聚合控制协议(LACP)模式,可以实现多个物理网卡的带宽叠加。 3. 创建 ifcfg-ethX 文件 在 /etc/sysconfig/network-scripts 目录下创建 ifcfg-ethX 文件(X 为物理网卡的编号),并添加以下内容: ``` DEVICE=ethX BOOTPROTO=none ONBOOT=yes MASTER=bond4 SLAVE=yes ``` 4. 重启网络服务 使用以下命令重启网络服务: ``` systemctl restart network ``` 5. 验证配置 使用以下命令验证 bond4 的配置是否生效: ``` cat /proc/net/bonding/bond4 ``` 如果输出类似以下内容,则说明配置成功: ``` Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: <模式> MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: ethX MII Status: up Speed: <网卡速度> Duplex: <网卡双工模式> Link Failure Count: 0 Permanent HW addr: <网卡 MAC 地址> Slave queue ID: 0 Slave Interface: ethY MII Status: up Speed: <网卡速度> Duplex: <网卡双工模式> Link Failure Count: 0 Permanent HW addr: <网卡 MAC 地址> Slave queue ID: 0 ``` 其中,<模式>、<网卡速度>、<网卡双工模式>、<网卡 MAC 地址> 等值会根据您的配置而有所不同。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

京天不下雨

thanks

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值