高级网络配置
为了解决网卡随时会损坏的问题
产生了链路聚合:多个网卡聚合到一起,减轻一块网卡的工作压力
bond和team接口,添加网卡后,网络通畅;实验环境为主备式,一块网卡出现异常,另一块网卡马上工作,并且网络服务不会停止
注意:该环境需要至少两块网卡,请添加网卡后实验!
一.bond接口
0平衡轮循环 1主动备份
该网络接口同时支持连接到两块网卡,并且有不同的使用方式。
roundrobin平衡轮询模式:两块网卡同时接受数据,谁闲谁做
activebackup主动备份模式:只有一块网卡工作。
此处我们主要研究主动备份模式
实验步骤:
1.配置实验环境
reset虚拟机desktop
virt-manager ##打开虚拟机管理器
真机给虚拟机添加一块新的虚拟网卡
添加
finsh添加成功
systemctl status NetworkManager ##查看网络记录服务是否开启,如没开启则需先开启服务
nmcli connection show ##查看网卡接口
nmcli connection delete "eth0" ##删除已有的接口
并且查看是否删除成功;
2.添加网络接口bond0
nmcli connection add con-name bond0 ifname bond0 type bond mode active-backup ip4 172.25.254.111/24
mode:网卡阵列类型
active-backup:主备式,一个网卡工作,另一网卡备用,当一个宕掉另一个马上由备份转换为主设备
3.将eth0网卡添加到接口bond0中
nmcli connection add con-name eth0 ifname eth0 type bond-slave master bond0
bond-slave:实现网卡阵列服务
master:指定接口 bond0
4.将eth1网卡添加到网络接口中
nmcli connection add con-name eth1 ifname eth1 type bond-slave master bond0
5.测试:
此时虚拟机的网是通着的
watch -n 1 cat /proc/net/bonding/bond0 查看bond接口工作信息
ifconfig eth0 down/up
我们可以看到当关掉eth0时,网络依旧通畅,此时我们可以看到,是eth1接管了eth0的工作,与下面举的team的例子是一致的。
6.删除之前的bond接口。
nmcli connection delete bond0
nmcli connection delete eth0
nmcli connection delete eth1
ifconfig会发现已没有了bond接口
二.team接口
team 支持8块网卡。
1.创建team接口
nmcli connection add con-name team0 ifname team0 type team config '{"runner":{"name":"activebackup"}}' ip4 172.25.254.111/24
2.创建连接team的网卡接口
nmcli connection add con-name eth0 ifname eth0 type team-slave master team0
nmcli connection add con-name eth1 ifname eth1 type team-slave master team0
3.测试:
查看team接口工作
teamctl team0 stat
我们可以看到此时是eth0在工作
关掉eth0时,网络依旧通畅
此时我们可以看到,是eth1接管了eth0的工作
打开eth0,工作的依旧是eth1
当关掉eth1时,此时就又变为eth0继续工作,与bond的主动备份模式是一致的
4.删除
nmcli connection delete team0
nmcli connection delete eth0
nmcli connection delete eth1
删除完后我们可以看到,ifconfig是没有team0接口的