链路聚合:
指将多个物理端口汇聚在一起,形成一个逻辑端口,以实现出/入流量吞吐量在各成员端口的负荷分担,交换机根据用户配置的端口负荷分担策略决定网络封包从哪个成员端口发送到对端的交换机。当交换机检测到其中一个成员端口的链路发生故障时,就停止在此端口上发送封包,并根据负荷分担策略在剩下的链路中重新计算报文的发送端口,故障端口恢复后再次担任收发端口。
作用:提高网络可靠性,在一个网卡出问题时,有另一个网卡继续使用,不影响网络。
简单的网络配置在之前的文章中有单独讲解过:https://blog.csdn.net/dddxxy/article/details/89349056 ,这里不做多余说明,下面先来学习两种链路聚合的方式:
方式一:bonding聚合:
nm-connection-editor ###删除接口
virt-manager ###删除网卡
cat /proc/net/bonding ###还没有
nmcli connection add con-name bond0 ifname bond0 type bond mode active-backup ip4 172.25.254.100/24 ###创建bond聚合,并为本机添加IP
cat /proc/net/bonding/bond0 ###可以查看聚合状态
nmcli connection add con-name eth0 ifname eth0 type bond-slave master bond0
nmcli connection add con-name eth1 ifname eth1 type bond-slave master bond0 ###给聚合口bond0添加两个网卡接口
virt-manager ###给pc添加两块网卡
cat /proc/net/bonding/bond0
###查看聚合口bond0的状态,有两个网卡,正在使用的应该是eth0
另开一个shell,Ping其他IP
ifconfig eth0 down
###关闭eth0,使用eth1接口。上面的ping不中断。
方式二:team聚合:
nm-connection-editor ##图形界面删除接口,bond聚合
virt-manage ##删除网卡
nmcli connection add con-name team0 ifname team0 type team config '{"runner":{"name":"activebackup"}}' ip4 172.25.254.100/24
###添加聚合口
teamdctl team0 state ###查看team0聚合口状态
nmcli connection add con-name eth0 ifname eth0 type team-slave master team0
nmcli connection add con-name eth1 ifname eth1 type team-slave master team0 ###添加接口
virt-manage ###添加两个网卡
teamdctl team0 state ###查看team0聚合口状态
同样,关闭正在使用的eth0,使用eth1,网络无中断。
大大的小小阳