网络配置--bond 与 team网络接口

bond接口与team接口的区别:

bond接口:仅支持2块网卡
team接口:与bond接口功能类似,区别在于team不需要手动加载相应的内核模块, 它有更强的拓展性,支持8块网卡

bond网络接口

概述:

1.什么是bond?

网卡bond是通过多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在生产场景中是一种常用的技术

2.bond常用的2种模式

01.mode=0(balance-rr)

> 表示负载分担round-robin,并且是轮询的方式比如第一个包走eth0,第二个包走eth1,直到数据包发送完毕。
> 
> 优点:流量提高一倍
> 
> 缺点:需要接入交换机做端口聚合,否则可能无法使用

02.mode=1(active-backup)

表示主备模式,即同时只有1块网卡在工作。

优点:冗余性高

缺点:链路利用率低,两块网卡只有1块在工作

##命令配置bond网络接口

在虚拟机上添加网卡,使之有多个网卡可调配
在这里插入图片描述

配置bond接口

 nmcli connection add con-name bond0 ifname bond0 type bond mode active-backup ip4 172.25.254.134/24
 
 ip addr show

在这里插入图片描述在这里插入图片描述

为bond接口添加网卡使其能够与外界链接

 nmcli connection add con-name eth0 ifname eth0 type bond-slave master bond0
 nmcli connection add con-name eth1 ifname eth1 type bond-slave master bond0

在这里插入图片描述
建立监控

watch -n 1 cat /proc/net/bonding/bond0 

分别使用命令

ifconfg eth0 down
ifconfg eth1 down
ifconfg eth0 up
ifconfg eth1up

观察效果
在这里插入图片描述

team网络接口

1.什么是team?

team实现的功能跟bond相似,team本质上也是一个虚拟的网卡驱动(networkdevicedriver),
只不过并没有真实的物理网卡与之对应,而是由这个虚拟网卡去“管辖”一系列的真实的物理网卡,
它的代码结构和一般网卡驱动的代码结构非常类似。

2.team的种类?

broadcast               # 广播容错
roundrobin              # 平衡轮叫
activebackup            # 主备模式
loadbalance             # 负载均衡模式,判断不同网卡的负载,给负载最少的网卡发送数据包

配置team接口

还原环境

nmcli connection delete bond0
删除网卡
nmcli connection delete eth0
nmcli connection delete eth1

利用命令

 nmcli connection add con-name team0 ifname team0 type team config   '{"runner":{"name":"activebackup"}}'  ip4 172.25.254.134/24

搭建team接口
在这里插入图片描述
监控命令

  watch -n 1 teamdctl team0 stat

重新添加网卡,并改变其类型

nmcli connection add con-name eth1 ifname eth1 type team-slave master team0 
nmcli connection add con-name eth0 ifname eth0 type team-slave master team0 

在这里插入图片描述

使用命令

ifconfg eth0 down
ifconfg eth1 down
ifconfg eth0 up
ifconfg eth1up

观察效果
在这里插入图片描述

  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
首先,bonding 是一种网络适配器绑定技术,可以将多个物理网络适配器(网卡)绑定成一个逻辑适配器,从而提高网络吞吐量和可靠性。在这里,我们假设您要配置一个 bond4 网络适配器。 以下是在 CentOS 7 操作系统中配置 bond4 的步骤: 1. 安装 bonding 模块 使用以下命令安装 bonding 模块: ``` yum install -y bonding ``` 2. 创建 ifcfg-bond4 文件 在 /etc/sysconfig/network-scripts 目录下创建 ifcfg-bond4 文件,并添加以下内容: ``` DEVICE=bond4 BOOTPROTO=none ONBOOT=yes NETMASK=255.255.255.0 IPADDR=<IP 地址> GATEWAY=<网关地址> BONDING_OPTS="mode=<模式>, miimon=100" ``` 其中,<IP 地址> 和 <网关地址> 分别为您需要分配给 bond4 的 IP 地址和网关地址,<模式> 为您选择的 bonding 模式,可以是以下其中之一: - balance-rr:负载均衡模式,数据包按照轮询方式发送到不同的物理网卡上; - active-backup:主备模式,一个物理网卡为活动状态,其他网卡为备份状态,当活动网卡失效时,备份网卡接管工作; - balance-xor:异或模式,数据包按照一定规则发送到不同的物理网卡上,确保相同的数据包发送到相同的网卡上; - broadcast:广播模式,数据包广播到所有物理网卡上; - 802.3ad:链路聚合控制协议(LACP)模式,可以实现多个物理网卡的带宽叠加。 3. 创建 ifcfg-ethX 文件 在 /etc/sysconfig/network-scripts 目录下创建 ifcfg-ethX 文件(X 为物理网卡的编号),并添加以下内容: ``` DEVICE=ethX BOOTPROTO=none ONBOOT=yes MASTER=bond4 SLAVE=yes ``` 4. 重启网络服务 使用以下命令重启网络服务: ``` systemctl restart network ``` 5. 验证配置 使用以下命令验证 bond4 的配置是否生效: ``` cat /proc/net/bonding/bond4 ``` 如果输出类似以下内容,则说明配置成功: ``` Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: <模式> MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: ethX MII Status: up Speed: <网卡速度> Duplex: <网卡双工模式> Link Failure Count: 0 Permanent HW addr: <网卡 MAC 地址> Slave queue ID: 0 Slave Interface: ethY MII Status: up Speed: <网卡速度> Duplex: <网卡双工模式> Link Failure Count: 0 Permanent HW addr: <网卡 MAC 地址> Slave queue ID: 0 ``` 其中,<模式>、<网卡速度>、<网卡双工模式>、<网卡 MAC 地址> 等值会根据您的配置而有所不同。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值