Lesson21 Linux系统系统中网卡的链路聚合
1. 什么是网卡聚合
我们都知道,ip对应的设备就是网卡,如果没有网卡,就不能配置ip.作为运维人员,应该保证网卡正常工作。在实际的应用场景中,有时需要不止一块网卡来完成工作,如果一块网卡坏了,不能正常工作,或者提高速度和冗余性,通常会将多块网卡捆绑在一起,这样可以有效的防止因为网卡损坏带来的损失,同时也可以提高网络访问速度
实验目的:将eth0与eth1链路聚合
网卡的链路聚合一般常用的有"bond"和"team"两种模式,"bond"模式最多可以添加两块网卡,"team"模式最多可以添加八块网卡
实验环境:server虚拟机
2. 学习配置网络桥接
2.1 配置bond接口
Red Hat Enterprise Linux 允许管理员使用 bonding 内核模块和称为通道绑定接口的特殊网络接口将多个网络接口绑定到一个通道
根据选择的绑定模式 , 通道绑定使两个或更多个网络接口作为一个网络接口 , 从而增加带宽
提供冗余性
利用nmcli命令管理bond
bond的两种聚合方式:
轮询聚合 | 提高效率(两块网卡同时工作) |
---|---|
主备聚合 | 提高安全性(一块网卡工作,另一块网卡等待,工作的那块网卡如果坏了等待的那块网卡就up上去工作) |
首先ip addr show
#查看网卡都没有设置ip
nmcli connection add con-name bond0 ifname bond0 type bond mode active-backup ip4 172.25.254.114/24
#添加bond聚合的接口
nmcli connection add con-name eth0 ifname eth0 type bond-slave master bond0
nmcli connection add con-name eth1 ifname eth1 type bond-slave master bond0
#添加两块网卡
nmcli connection show
#查看看聚合网卡是否添加成功
watch -n 1 cat /proc/net/bonding/bond0
#再开一个监控shelll,监控网卡的工作状态
打开三个shell(一个监控,一个操作,一个ping)查看bond网络下主备聚合的效果
可以看出,采用聚合方式当网卡坏了,网络不会有任何错误,ping172.25.254.114也不会掉
2.1 配置team接口
team的种类
broadcast | 广播容错 |
---|---|
roundrobin | 平衡轮叫 |
activebackup | 主备模式 |
loadbalance | 负载均衡(和bond聚合的不同之处) |
利用nmcli命令管理team
team比bonding的优势是bonding的轮流接替:轮到谁就是谁; team的轮流接替:负载均衡(谁空闲就给谁)
实验前,先删除之前的bond聚合
nmcli connection add con-name team0 type team ifname team0 config '{"runner":{"name":"activebackup"}}' ip4 172.25.254.114/24
#添加team聚合接口
监控watch -n 1 ‘teamdctl team0 stat’
nmcli connection add con-name eth0 ifname eth0 type team-slave master team0
#添加聚合网卡eth0
nmcli connection add con-name eth1 ifname eth1 type team-slave master team0
#同样,添加聚合网卡eth1
看team聚合下主备聚合的效果