VMware中的NAT模式
1、安装VMware之后,会在宿主机上产生两个网卡:VMnet1和vmnet8。VMnet1:仅主机 VMnet8:NAT
2、NAT的功能:网络转换
3、VMware上执行NAT转换功能的设备:虚拟NAT设备:vmnet8提供的功能
4、VMware上还提供DHCP服务器
nmcli
网络配置方式:
1、nmtui:图形化界面配置
2、nmcli:network manager client
3、配置文件:装完Linux之后默认会有一个网卡(虚拟的物理设备),DHCP会默认在/etc/sysconfig/network-scripts/产生ifcfg-ens160配置文件,对应网卡的配置文件,修改这个文件也可以
其他命令:
查询IP
ifconfig
ip a
可以用来配置网络
nmcli格式:
nmcli [OPTIONS...] {help | general | networking | radio | connection | device | agent | monitor}
最常用的是connection和device
添加连接
[root@bogon ~]# nmcli connection add type ethernet con-name(连接名) new_con ifname ens160 ipv4.addresses 192.168.233.200/24 ipv4.dns 114.114.114.114 ipv4.method manual connection.autoconnect yes
con-name:连接名;type类型为以太网;ifname接口名
激活:
[root@bogon ~]# nmcli c up new_con
想在有连接之后改IP
nmcli connection modify new_con ipv4.addresses 192.168.233.201/24 //modify后加具体连接
nmcli c up new_con //再激活一下
重启网络
nmcli d reapply ens160
nmcli d connect ens160
nmcli c up ens160
Team网卡绑定
在Linux中,rhel7之前,都是使用bond的机制来实现网卡绑定同一IP地址来对网络的访问,rhel7之后,nmcli工具命令,使用网络组team机制。工作原理差不多,配置不同。
team的网络模式
broadcast:每个网卡都传送数据包
roundrobin:每个网卡轮询方式传送数据
activebackup:网卡之间有主备,主传送数据包,主网卡down了,备才传送
loadbalance:监控流量并使用哈希函数,是每个网卡传送的数据包达到相等。
lacp:需要借助交换机,实现高级的负载均衡
Team的配置
[root@localhost ~]# cd /usr/share/doc/teamd-1.17/example_configs
[root@localhost example_configs]#ll
/usr/share/doc/ :存放软件的示范文档
/usr:用户软件资源
选择链路聚合配置模型:
“runner”:{“name”:“activebackup”}
创建team0设备和team0会话
[root@localhost ~]#nmcli connection add type team con-name team0 ifname team0 ipv4.address 192.168.233.200/24 ipv4.gateway 192.168.233.2 ipv4.method manual config '{"runner":{"name":"activebackup","hwaddr_policy":"by_active"}}'
//ifname team0 不需要ifname,需要网卡,创建网卡
//ipv4.method manual 静态(手动)获取
//config来指定工作模式
//{"runner":{"name":"activebackup"}}=>{"key":value}
查看创建好的team0会话
[root@localhost ~]#nmcli connection show
修改team0会话的IP网址和网关
[root@localhost ~]#nmcli connection modify team0 ipv4.address 192.168.171.150/24
[root@localhost ~]#nmcli connection modify ipv4.gateway 192.168.171.1
添加设备到team0并激活
[root@localhost ~]#nmcli c add type team-slave con-name team0-port1 ifname ens160 master team0
[root@localhost ~]#nmcli c add type team-slave con-name team0-port2 ifname ens224 master team0
//激活
[root@localhost ~]#nmcliconnection up team0-port1
[root@localhost ~]#nmcliconnection up team0-port2
[root@localhost ~]#nmcliconnection up team0
查看team0状态
[root@localhost ~]#teamdctl team0 state view
多网卡绑定配置
1、首先在Linux添加一块网卡;
VMware->选定当前的Linux->设置->硬件->添加->网络适配器->确定
查看一下是否生效
2、然后配置team
1.配置聚合后端口:team0->master
添加连接,且生产一个虚拟的网卡team0(使用连接类型team,team工作模式activebackup,硬件地址策略:by_active)
nmcli c add type team con-name team0 ifname team0 ipv4.address 192.168.33.200/24 ipv4.gateway 192.168.33.2 ipv4.method manual config '{"runner":{"activebackup","hwaddr_policy":"by_active"}}'
//添加完成后查看
nmcli c show
2.将我们的两块物理网卡添加到team0中
两块网卡:ens60和ens224
添加连接:放入team0的连接(master team0),typr:team-slave,使用实际网卡名称
team0是对外IP访问的连接,连接实际上是使用实际的物理网卡,因为主备模式,所以最少有两个网卡
nmcli c add type teame-slave con-name team0-port1 ifname ens160 master team0
nmcli c add type teame-slave con-name team0-port2 ifname ens224 master team0
//查询是否创建成功
nmcli c show
3.激活
先激活team0-port1,team0-port2再激活team0
nmcli c up team0-port1
nmcli c up team0-port2
nmcli c up team0
//再去查看连接
nmcli c show
使用teamdctl team0 state view查看team的工作状态
teamdctl team0 state view
4.验证
当前哪个端口是active状态,断掉当前端口的连接
nmcli c down team0-port1
然后查询状态:是否从主切到备
teamdctl team0 state view
查看切换时ping是否有异常
``
teamdctl team0 state view
4.验证
当前哪个端口是active状态,断掉当前端口的连接
nmcli c down team0-port1
然后查询状态:是否从主切到备
teamdctl team0 state view
查看切换时ping是否有异常
其他模式:roundrobin,loadbalance,broadcast
nmcli c add type team con-name team0 iname team0 ipv4.address 192.168.233.200/24 ipv4.gateway 192.168.233.2 ipv4.method manual config'{"runner":{"name":"roundrobin"}}'
nmcli c add type team con-name team0 iname team0 ipv4.address 192.168.233.200/24 ipv4.gateway 192.168.233.2 ipv4.method manual config'{"runner":{"name":"loadbalance"}}'
nmcli c add type team con-name team0 iname team0 ipv4.address 192.168.233.200/24 ipv4.gateway 192.168.233.2 ipv4.method manual config'{"runner":{"name":"broadcast"}}'
team的其他模式:
activebackup:主备模式
roundordin:轮询
loadbalance:负载均衡
broadcast:广播
桥接
把一台机器上的若干个网络接口连接起来,其结果是,其中一个网卡收到的报文回被复制给其他网卡发送出去。使得网口之间的报文能够相互转发。作用就是转发数据包。配置网桥不影响windows访问Linux。
Bridge是在Linux上用来做TCP/IP二层协议交换的设备。Bridge的功能主要是在内核里实现。当从一个设备attach到bridge上时,相当于现实世界里交换机的端口被插入了一根连有终端的网线。netdev_rx_handler-register()被调用
配置网桥
配置网桥
[root@localhost ~]# nmcli c add type bridge con-name br1 ifname br1
配置IP地址网关和地址获取方式
数据包流向->网桥->ens160
[root@localhost ~]# nmcli connection modify br1 ipv4.addresses 192.168.31.151/24
[root@localhost ~]# nmcli connection modify br1 ipv4.gateway 192.168.31.129
[root@localhost ~]# nmcli connection modify br1 ipv4.method manual
添加设备和会话到桥接设备,并启动从设备会话
[root@localhost ~]# nmcli connection add type bridge-slave con-name br1-port0 ifname ens160 master br1
//启动
[root@localhost ~]# nmcli connection up br1-port0
让linux主机带有路由器功能