###############
IPV6
###############
IPv6的地址长度为128b,是IPv4地址长度的4倍。于是IPv4点分十进制格式不再适用,采用十六进制表示。
8个域
2016::1 == 2016:0:0:0:0:0:0:1
2016:2:0:0:1 == 2016:0:0:0:2:0:0:1
子网掩码必须是16的倍数
配置:
nmcli connection add con-name westos ifname eth0 type ethernet ip6 2017::C/48
systemctl restart network
ifconfig
ping6 2017::C ##ping的时候使用ping6 ping是默认ipv4的
#######
nmcli命令
#######
nmcli general status ##显示NetworkManager的整体状态
nmcli connection show ##显示所有的连接
nmcli connection show -a ##仅显示活跃连接
================
启动/停用网络设备:
================
nmcli device disconnect 设备名 ##停止使用某个设备
nmcli device connect 设备名 ##启动某个设备
=============================
添加一个使用静态IP的以太网连接:
=============================
nmcli connection add type ethernet con-name NAME_OF_CONNECTION ifname INTERFACE_NAME ip4 IP_ADDRESS gw4 GW_ADDRESS
*****
将NAMEOFCONNECTION替换成新的连接名(LCTT 译注:这个名字以后可以用来对其操作,可以使用任何简单明了的名称),INTERFACE-NAME 替换成你的接口名,IPADDRESS替换成你要的IP地址,GWADDRESS替换成你使用的网关地址(如果你并不使用网关,你可以忽略这部分)。
======================
添加一个使用DHCP的连接:
======================
nmcli connection add type ethernet con-name NEW_DHCP ifname DEVICE_NAME
######
高级网络配置
######
虚拟机的网络一般都使用桥接模式
NAT(网络地址转换模式)
bridge(桥接模式)
桥接模式就是将虚拟网卡桥接到一个物理网卡上,与一个网卡绑定两个不同地址类似
这样,虚拟机内部的网卡(eth0)直接连接到了物理网卡所在的网络上,这样虚拟机跟主机在网络上是平等的地位
两者想要相互通讯,就必须设置在同一个网段
桥接模式想要使用,主机必须要有一个桥接网络
==================
主机桥接的网络配置:
==================
cd /etc/sysconfig/network-scripts/
[root@foundation12 network-scripts]# cat ifcfg-enp0s25
DEVICE=enp0s25
ONBOOT=yes
BOOTPROTO=none
BRIDGE=br0
[root@foundation12 network-scripts]# cat ifcfg-br0
DEVICE=br0
ONBOOT=yes
BOOTPROTO=none
IPADDR=172.25.254.12
NETMASK=255.255.255.0
TYPE=Bridge
DNS1=172.25.254.250
======
桥接:
======
brctl addbr br0 ##添加一个桥接设备br0
brctl show ##查看本机的桥接信息
nm-connection-editor
brctl addif br0 eth0 ##在br0上添加一个eth0的接口
brctl show
ifconfig br0 172.25.254.112 netmask 255.255.255.0 ##为桥接设置ip
ifconfig
ping 172.25.254.12
brctl show
ifconfig br0 down ##停止使用br0设备
ifconfig
brctl delif br0 eth0 ##将br0上的eth0接口删掉
brctl show
brctl delbr br0 ##删除桥接设备br0
brctl show
ifconfig
systemctl restart network
=================================
网卡bonding:(最多支持两块网卡)
=================================
Red Hat Enterprise Linux 允许管理员使用bonding 内核模块和称为通道绑定接口的特殊网络接口将多个网络接口绑定到一个通道。根据选择的绑定模式 , 通道绑定使两个或更多个网络接口作为一个网络接口 , 从而增加带宽和 / 提供冗余性
• 模式 0 ( 平衡轮循 ) - 轮循策略 , 所有接口都使用采用轮循方式在所有 Slave 中传输封包 ; 任何Slave 都可以接收
• 模式 1 ( 主动备份 ) - 容错。一次只能使用一个Slave 接口 , 但是如果该接口出现故障 , 另一个Slave 将 接替它
• 模式 3 ( 广播 ) - 容错。所有封包都通过所有Slave 接口广播
Linux 双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链 接聚合成一个逻辑链路工作。
网络负载均衡:
对于bonding的网络负载均衡是我们在文件服务器中常用到的,比如把三块网卡,当做一块来用,解决一个IP地址,流量过大,服务器网络压力过大的问 题。对于文件服务器来说,比如NFS或SAMBA文件服务器,没有任何一个管理员会把内部网的文件服务器的IP地址弄很多个来解决网络负载的问题。如果在 内网中,文件服务器为了管理和应用上的方便,大多是用同一个IP地址。对于一个百M的本地网络来说,文件服务器在多个用户同时使用的情况下,网络压力是极 大的,特别是SAMABA和NFS服务器。为了解决同一个IP地址,突破流量的限制,毕竟网线和网卡对数据的吞吐量是有限制的。如果在有限的资源的情况 下,实现网络负载均衡,最好的办法就是 bonding ;
网络冗余:
对于服务器来说,网络设备的稳定也是比较重要的,特别是网卡。在生产型的系统中,网卡的可靠性就更为重要了。在生产型的系统中,大多通过硬件设备的冗余来 提供服务器的可靠性和安全性,比如电源。bonding 也能为网卡提供冗余的支持。把网个网卡绑定到一个IP地址,当一块网卡发生物理性损坏的情况下,另一块网卡也能提供正常的服务
**************
有两种配置方法:
**************
-----------------------------------------
1.用nmcli命令配置bonding:
-----------------------------------------
nmcli connection add con-name bond0 ifname bond0 type bond mode active-backup ip4 172.25.254.112/24 ##建立bonding
ifconfig
ping 172.25.254.12
nmcli connection add con-name eth0 ifname eth0 type bond-slave master bond0 ##绑定eth0
ping 172.25.254.12
nmcli connection add con-name eth1 ifname eth1 type bond-slave master bond0 ##绑定eth1
ifconfig eth0 down
ifconfig eth0 up
-------------------
2.用文件配置:
-------------------
• 建立绑定接口 bond0 配置文件 :
/etc/sysconfig/network-scripts/ifcfg-bond0
– DEVICE=bond0
– BOOTPROTO=none
– IPADDR=172.25.254.112
– PREFIX=24
– ONBOOT=yes
– BONDING_OPTS=”mode=1 miimon=50”
• 建立 Slave 接口 eth0 配置文件 :
/etc/sysconfig/network-scripts/ifcfg-eth0
– DEVICE=eth0
– BOOTPROTO=none
– ONBOOT=yes
– MASTER=bond0
– SLAVE=yes
• 建立 Slave 接口 eth1 配置文件 :
/etc/sysconfig/network-scripts/ifcfg-eth1
– DEVICE=eth1
– BOOTPROTO=none
– ONBOOT=yes
– MASTER=bond0
– SLAVE=yes
• 配置系统加载 bonding 模块 :
/etc/modprobe.d/bonding.conf
– alias bond0 bonding
• ifenslave bond0 eth0 eth1 ##开机启动
• 查看 bonding 状态
– cat /proc/net/bonding/bond0
******************
删除bonding配置
******************
nmcli connection delete eth0
nmcli connection delete eth1
nmcli connection delete bond0
ifconfig
==========
网卡team:(最多八块)
==========
• Team 和 bond0 功能类似
• Team 不需要手动加载相应内核模块
• Team 有更强的拓展性
– 支持 8 快网卡
Team 的种类
• broadcast 广播容错
• roundrobin 轮询
• activebackup 主备
• loadbalance 负载均衡
用nmcli配置team:
ifconfig
nmcli connection add con-name team0 ifname team0 type team config '{"runner":{"name":"activebackup"}}' ip4 172.25.254.112/24 ##生成绑定网卡team0以及team0的配置文件
ifconfig
nmcli connection add con-name eth0 ifname eth0 type team-slave master team0 ##为team0添加网卡eth0
ping 172.25.254.12
nmcli connection add con-name eth1 ifname eth1 type team-slave master team0 ##为team0添加网卡eth1
ifconfig eth0 down
ifconfig eth0 up
实时监控team状况:
watch -n 1 teamdctl team0 stat