一、bond 聚合
此实验在desktop上,做实验前确保有两块真实的物理网卡。
1.删除链接网卡文件
nmcli connection delete System \eth0
2.监控链接文件
watch -n 1 "cat /proc/net/bonding/bond0"
原本什么都没有
3.添加bond聚合(mode:主备聚合:avtive-backup)接口
nmcli connection add con-name bond0 ifname bond0 type bond mode active-backup ip4 172.25.254.113/24
此时,ping真机网络172.25.254.13ping不通
4.往链路里加网卡
1.nmcli connection add con-name eth0 ifname eth0 type bond-slave master bond0
2.nmcli connection add con-name eth1 ifname eth1 type bond-slave master bond
添加完就可以ping通了
当前状态eth0在工作,关闭eth0
ifconfig eth0 down
eth1顶上,照样能ping通
恢复eth0,关闭eth1
二 、team 聚合
先删掉bond聚合的聚合文件
删除完毕
聚合之前的状态:
watch -n 1 "teamdctl team0 stat;ping -c1 -w1 172.25.254.13" #监控team聚合链路和ping 13的情况
1.添加team聚合接口
nmcli connection add con-name team0 ifname team0 type team config '{"runner":{"name":"activebackup"}}' ip4 172.25.254.113/24
2.team聚合里添加eth0
nmcli connection add con-name eth0 ifname eth0 type team-slave master team0
3.添加eth1
nmcli connection add con-name eth1 ifname eth1 type team-slave master team0
4.当前状态是eth0工作,现在关闭eth0(模仿eth0损坏),那么eth1就会顶上来工作,ping不会因eth0受损而不正常工作。
5.eth0坏了后立马修好备用,防止eth1故障
这时,eth1又故障,但ping可以正常工作
总结:
bond聚合,出故障后轮到谁就给谁,接替。而team聚合是故障后谁空闲给谁。
bond 聚合最多可以添加2块网卡,team最多可以添加8块网卡。
三、br0桥接接口
首先来看一组实验,有br0和无br0安装虚拟机的网速区别:
安装方式选择网络安装
一、真机有br0
1.安装
Network source选Bridge br0
然后Send key 选Ctrl+Alt+F2
开始测试:
效果:
二、真机无br0
把/etc/sysconfig/network-scripts下ifcfg=br0,ifcfg-enp3s0删掉,若有其他的以ifcfg开头的也一并删掉(回环接口ifcfg-lo留下)
为了保险,我把ifcfg=br0,ifcfg-enp3s0移动到/opt暂时保管(以防自己恢复失败),其他ifcfg开头的全部删掉。
移动暂保管
删除后:
删除完毕后reboot
再给真机一个ip,
此时发现没有br0接口:
再装个虚拟机看看:
选择网络安装:
装好测试(Ctrl+Alt+F2):
给定一个临时ip,ping真机看网速
没做出:理论1毫秒左右
没做出:理论1毫秒左右
1。配置文件恢复br0
1.vim ifcfg-Ethernet_connection_1
2.vim ifcfg-br0
3.systemctl restart network
2。命令恢复br0
brctl show | 展示网桥信息 |
---|---|
brctl addbr br0 | 添加网桥 |
brctl addif br0 eth0 | 给网桥添加一个真实存在的网卡 |
ifconfig br0 down | 关闭桥接(删除前得先关闭) |
brctl delbr br0 | 删除桥接 |
做实验前看一下,没有桥接
1.添加网桥
2.添加真实存在的网卡
查看,已有桥接
3.删除桥接
需要写关闭桥接,再删除
此时再看,没有了