nmcli 命令配置 team 的 activebackup(主备模式) 和 桥接

目录

一,验证环境

二,yum源配置

第一种是配置在线的yum源

第二种是配置本地的yum源(一般在我们的linux上不了网但是需要下载东西的时候使用)

三,nmcli命令

nmcli device 后面可以跟

nmcli connection后面可以跟

四,team 多网卡绑定

1.首先要有多个网卡

2.创建一个虚拟网卡和链接

3.绑定操作

4.激活链接

5.查询主备的状态

6.切换

7.重新启动

五,桥接

1.需要有一个对外的桥接的虚拟的网卡,需要有ip

2.将我们的网卡连接到虚拟桥接网卡上

3.启动

4.测试: 测试我们网卡上面是不是有网桥转发过来的数据包(icmp)

一,验证环境

保证windows和linux通讯正常: windows可以ping通linux, linux可以ping通windows, linux可以ping通百度

这个环境的问题ping命令正常用就可以了,这里不过多去强调

二,yum源配置

保证你的linux可以正常安装软件:配置yum源, 测试安装yum install httpd -y可以成功

配置yum源有两种方法

第一种是配置在线的yum源

cd /etc/yum.repos.d
wget -O CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-8.repo
yum clean all
yum makecache

第二种是配置本地的yum源(一般在我们的linux上不了网但是需要下载东西的时候使用)

1.你的现有软件包,软件包从iso镜像来
  挂载iso镜像到我们文件系统的目录
  mount /dev/sr0 /mnt
2.进入/etc/yum.repos.d/
  vim redhat.repo

[base]
name=base
baseurl=file:///mnt/BaseOS
enabled=1
gpgcheck=0

[AppStream]
name=AppStream
baseurl=file:///mnt/AppStream
enabled=1
gpgcheck=0

3. yum clean all
   yum makecache

三,nmcli命令

nmcli 这个命令可以对网络进行管理,类似与nmtui,区别在于nmtui是经过图形化界面,nmcli没有图形化界面但是比nmtui更快捷方便。

nmcli device 后面可以跟

connect     disconnect  lldp        monitor     set         status      
delete      help        modify      reapply     show        wifi   

常用的有

connect: 连接, 激活当前这个网卡
disconnect: 断开连接 断开这个网卡
delete:删除
modify:修改
reapply:重新应用
show: 展示网卡信息
status: 状态

nmcli connection后面可以跟

add      delete   edit     help     load     monitor  show     
clone    down     export   import   modify   reload   up 

注解和常用:

add: 增加一个网络连接
delete: 删除
edit: 编辑
load: 从配置文件加载
show:展示
clone: 克隆
down: 断开当前连接
export:导出
import:导入
modify:修改
reload: 重新加载
up: 激活
# 常用: add, delete, modify, reload, show, up , down

四,team 多网卡绑定

多个网卡绑定在一起对外提供服务, 用户来访问的时候, 发数据包。

broadcast广播的意思: 发过来的数据包以广播的形式,发送到每一个网卡
roundrobin轮询的模式:发送数据包到网卡,轮换的发送
activebackup两块网卡互为主备,当网卡是主设备,另一块不工作作为从设备, 当主设备出现问题,切换到从设备。
loadbalance负载均衡: 两块网卡绑定为负载均衡模式,他会通过计算,让两块网卡上面收到的数据包均衡
lacp需要借助设备,实现高级负载均

这里我们用 activebackup(主备)模式来举例

1.首先要有多个网卡

在vmware虚拟机配置里可以增加物理网卡

2.创建一个虚拟网卡和链接

虚拟网卡对外提供服务,意味着它上面需要配置IP,配置IP是配置在连接上的。

这里的操作是直接去添加一条连接,并指定虚拟网卡:产生连接的同时,产生了一个虚拟网卡。

nmcli c add type team con-name team_conn ifname team_dev config '{"runner": {"name": "activebackup"}}' ipv4.addresses 192.168.233.158/24 ipv4.gateway 192.168.233.2 ipv4.dns 8.8.8.8 ipv4.method manual

注:config:配置team机制的模式,json格式的
'{"runner": {"name": "activebackup", "hwaddr_policy": "by_active"}}'

3.绑定操作

实际的物理网卡得绑定在我们的虚拟网卡上,这个是不需要配置IP

nmcli c add type team-slave con-name team_port1 ifname ens160 master team_dev
nmcli c add type team-slave con-name team_port2 ifname ens224 master team_dev

4.激活链接

激活我们的物理网卡,以及我们的虚拟网卡

nmcli c up team_port1
nmcli c up team_port2
nmcli c up team_conn

注:激活的时候,先激活team-slave, 然后再激活team

5.查询主备的状态

teamdctl team_dev state [view]

6.切换

down掉主用的网卡ens160

nmcli d disconnect ens160

再次查询主备发现切换过来但是windows ping 不通linux了 原因是因为配置成功了之后,ens160,ens224,team_dev三个mac地址相同的
        执行切换的时候:ens160和ens224的mac相同,切换是切换过来的,但是它不知道使用哪个
        需要做的修正是:让它切换的时候,让我们team_dev跟随主用设备的mac地址

nmcli c modify team_conn config '{"runner": {"name": "activebackup", "hwaddr_policy": "by_active"}}'

修改之前json格式中的内容

7.重新启动

nmcli c up team_port1
nmcli c up team_port2
nmcli c up team_conn

再次验证发现ping命令不会中断证明我们成功

五,桥接

1.需要有一个对外的桥接的虚拟的网卡,需要有ip

nmcli c add type bridge con-name br1 ifname qiaojie ipv4.addresses 192.168.120.128/24 ipv4.gateway 192.168.120.2 ipv4.dns 8.8.8.8 ipv4.method manual 

2.将我们的网卡连接到虚拟桥接网卡上

nmcli c add type bridge-slave con-name br1_port1 ifname ens160 master qiaojie
nmcli c add type bridge-slave con-name br1_port2 ifname ens224 master qiaojie

3.启动

nmcli c up br1_port1
nmcli c up br1_port2
nmcli c up br1

4.测试: 测试我们网卡上面是不是有网桥转发过来的数据包(icmp)

用windows ping linux 

 

 通过 tcpdump 命令在linux上抓包发现在ping时 网卡ens160和ens224上都有数据包经过,意味着桥接配置成功。

有任何问题欢迎私信和评论!!!

看都看了动动手指点个赞吧 ~

  • 6
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
在CentOS 7.6上实现双网卡绑定teaming,可以按照以下步骤进行操作: 1. 确认系统中已经安装 teaming 相关软件包,如果没有安装,可以使用以下命令安装: ``` yum install -y teamd teamd-devel libteam ``` 2. 编辑网卡配置文件,例如 eth0 和 eth1,可以使用 vim 或者其他编辑器打开 /etc/sysconfig/network-scripts 目录下的 ifcfg-eth0 和 ifcfg-eth1 文件。 ``` vim /etc/sysconfig/network-scripts/ifcfg-eth0 ``` ``` vim /etc/sysconfig/network-scripts/ifcfg-eth1 ``` 在这两个文件中都添加以下内容: ``` TEAM_MASTER=team0 TEAM_PORT_CONFIG='{"prio": 100}' ``` 其中 TEAM_MASTER 指定了 teaming 的主设备名称,这里取名为 team0;TEAM_PORT_CONFIG 定义了端口的优先级,这里设置为 100。 3. 创建 team0 设备配置文件,可以使用以下命令创建 /etc/sysconfig/network-scripts/ifcfg-team0 文件。 ``` vim /etc/sysconfig/network-scripts/ifcfg-team0 ``` 在该文件中添加以下内容: ``` DEVICE=team0 DEVICETYPE=Team TEAM_CONFIG='{"runner": {"name": "activebackup"}}' BOOTPROTO=none ONBOOT=yes ``` 其中 TEAM_CONFIG 定义了 teaming 的模式,这里设置为 activebackup主备模式)。 4. 重启网络服务,使配置生效。 ``` systemctl restart network ``` 或者使用以下命令重启 teaming 服务。 ``` systemctl restart teamd ``` 5. 验证 teaming 是否生效,可以使用以下命令查看 teaming 设备的状态。 ``` teamdctl team0 state ``` 如果输出类似以下内容,说明 teaming 配置成功。 ``` setup: runner: activebackup ports: eth0 link watches: link summary: up instance[link_watch_0]: name: ethtool link: up eth1 link watches: link summary: up instance[link_watch_0]: name: ethtool link: up runner: active port: eth0 ``` 至此,双网卡绑定 teaming 实现 mod=1 activebackup 主备模式配置完成。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值